Chile, 02 de octubre de 2025-. Cada vez más personas están ejecutando LLMs directamente en sus PCs. Para reducir costos de suscripción y tener mayor privacidad y control sobre sus proyectos. Con nuevos y avanzados open weight models y herramientas gratuitas para correrlos localmente. Más usuarios quieren experimentar con IA directamente en su laptop o escritorio.
Las GPU GeForce RTX aceleran estas experiencias, ofreciendo un rendimiento ágil y veloz. Y con las actualizaciones de Project G-Assist. Los usuarios de laptops ya pueden empezar a usar comandos de voz y texto con IA para controlar su PC.
El blog más reciente de RTX AI Garage de NVIDIA muestra cómo estudiantes, entusiastas de la IA. Y desarrolladores pueden comenzar a usar LLMs en PCs hoy mismo:
Ollama: Una de las formas más accesibles para empezar. Esta herramienta de código abierto ofrece una interfaz sencilla para ejecutar e interactuar con LLMs. Los usuarios pueden arrastrar y soltar PDFs en los prompts. Mantener chats conversacionales e incluso probar flujos de trabajo multimodales que combinan texto e imágenes.
AnythingLLM: Construye un asistente personal de IA. Funciona sobre Ollama y permite cargar notas. Presentaciones o documentos para crear un tutor que genera cuestionarios y tarjetas de estudio para cursos, privado, rápido y gratuito.
LM Studio: Explora docenas de modelos. Basado en el popular framework llama.cpp. Ofrece una interfaz fácil de usar para correr modelos localmente. Los usuarios pueden cargar diferentes LLMs, chatear en tiempo real. E incluso montarlos como local API endpoints para integrarlos en proyectos personalizados.
Project G-Assist: Controla tu PC con IA. Con las últimas actualizaciones, los usuarios de PC ya pueden usar comandos de voz. O texto para ajustar la batería, ventiladores y configuraciones de rendimiento.
Ollama obtiene un gran impulso de rendimiento en GeForce RTX: Las últimas actualizaciones incluyen hasta 50% más rendimiento optimizado. Para OpenAI’s gpt-oss-20B y hasta 60% más rápido en los modelos Gemma 3. Además de una programación de modelos más inteligente para reducir problemas de memoria y mejorar la eficiencia en múltiples GPU.
Llama.cpp y GGML optimizados para GeForce RTX: Las últimas mejoras ofrecen inferencia más rápida y eficiente en GPUs RTX. Incluyendo soporte para el modelo NVIDIA Nemotron Nano v2 9B, Flash Attention activado por defecto y optimizaciones con núcleos CUDA.
Descarga la actualización G-Assist v0.1.18 a través de la NVIDIA App. Con nuevos comandos para usuarios de laptops y mejor calidad en las respuestas.
Microsoft lanzó Windows ML con NVIDIA TensorRT para aceleración RTX, logrando hasta un 50% más de rapidez en inferencia. Despliegue más ágil y soporte para LLMs, diffusion y otros tipos de modelos en PCs con Windows 11.
Ironman 70.3 Marbella. La preparación física ideal para una competencia extrema Una competencia como esta…
Se trata de 94 unidades de buses articulados BYD de 18 metros, totalmente eléctricos. Los…
La primavera abre paso a una época donde el vino también cambia de ritmo. Los…
El nuevo SUV de OMODA | JAECOO ya está disponible en Chile en tres versiones.…
Este viernes 7 de noviembre entre las 19:00 y las 21:00 horas, Tesla logrará superar…
Ecommerce de alimentos crece y redefine la última milla refrigerada Comprar fruta para el desayuno,…