
Convierte contenido HTML a Markdown utilizando LLM y Ollama
LLM para extraer texto de HTML...
En la biblioteca de modelos de Ollama hay modelos que pueden convertir contenido HTML a Markdown, lo cual es útil para tareas de conversión de contenido.
LLM para extraer texto de HTML...
En la biblioteca de modelos de Ollama hay modelos que pueden convertir contenido HTML a Markdown, lo cual es útil para tareas de conversión de contenido.
¿Cuán diferentes son?
Cursor AI vs GitHub Copilot vs Cline AI vs...
Listaré aquí algunas herramientas de codificación asistidas por IA y Asistentes de codificación de IA y sus aspectos positivos.
Lista breve de proveedores de LLM
El uso de LLMs no es muy costoso, quizás no sea necesario comprar una nueva GPU increíble.
Aquí hay una lista de proveedores de LLM en la nube con LLMs que alojan.
Ollama en CPU de Intel: núcleos eficientes vs. núcleos de rendimiento
Tengo una teoría para probar: ¿si utilizamos todos los núcleos en una CPU de Intel aumentaría la velocidad de los LLMs? Me molesta que el nuevo modelo gemma3 de 27 bits (gemma3:27b, 17 GB en ollama) no se ajuste a los 16 GB de VRAM de mi GPU, y se ejecute parcialmente en la CPU.
La IA requiere mucha potencia...
En medio del caos del mundo moderno aquí estoy comparando especificaciones técnicas de diferentes tarjetas adecuadas para tareas de IA
(Deep Learning,
Deteción de objetos
y LLMs).
Aunque todas son increíblemente caras.
Configurando ollama para la ejecución de solicitudes en paralelo.
Cuando el servidor Ollama recibe dos solicitudes al mismo tiempo, su comportamiento depende de su configuración y de los recursos del sistema disponibles.
¿Qué es este atractivo codificación asistida por IA?
Vibe coding es un enfoque de programación impulsado por IA donde los desarrolladores describen la funcionalidad deseada en lenguaje natural, permitiendo que las herramientas de IA generen código automáticamente.
Comparando dos modelos deepseek-r1 con dos modelos base
El primer generación de modelos de razonamiento de DeepSeek con un rendimiento comparable al de OpenAI-o1, incluyendo seis modelos densos destilados de DeepSeek-R1 basados en Llama y Qwen.
Compilé esta lista de comandos de Ollama hace algún tiempo...
Aquí está la lista y ejemplos de los comandos más útiles de Ollama (cheat sheet de comandos de Ollama) Los compilé hace algún tiempo. Espero que también sea útil para ti.
Siguiente ronda de pruebas de LLM
Hace poco fue lanzado. Vamos a ponernos al día y
testeamos cómo se comporta Mistral Small en comparación con otros LLMs.
Un código en Python para el reordenamiento de RAG
Novedoso modelo de IA para generar imágenes a partir de texto
Recientemente, Black Forest Labs publicó un conjunto de modelos de IA de texto a imagen. Estos modelos se dicen que tienen una calidad de salida mucho mayor. Probémoslos
Comparando dos motores de búsqueda de IA autohospedados
La comida deliciosa también es un placer para los ojos.
Pero en este post compararemos dos sistemas de búsqueda basados en IA, Farfalle y Perplexica.
¿Ejecutando un servicio estilo copilot localmente? ¡Fácil!
¡Eso es muy emocionante! En lugar de llamar a copilot o perplexity.ai y contarle al mundo entero qué es lo que buscas, ahora puedes alojar un servicio similar en tu propio PC o laptop.