Tecnología

Lleva la IA de última generación directo a tu computadora

IA

Chile, 02 de octubre de 2025-. Cada vez más personas están ejecutando LLMs directamente en sus PCs. Para reducir costos de suscripción y tener mayor privacidad y control sobre sus proyectos. Con nuevos y avanzados open weight models y herramientas gratuitas para correrlos localmente. Más usuarios quieren experimentar con IA directamente en su laptop o escritorio.

Las GPU GeForce RTX aceleran estas experiencias, ofreciendo un rendimiento ágil y veloz. Y con las actualizaciones de Project G-Assist. Los usuarios de laptops ya pueden empezar a usar comandos de voz y texto con IA para controlar su PC.

El blog más reciente de RTX AI Garage de NVIDIA muestra cómo estudiantes, entusiastas de la IA. Y desarrolladores pueden comenzar a usar LLMs en PCs hoy mismo:

Ollama: Una de las formas más accesibles para empezar. Esta herramienta de código abierto ofrece una interfaz sencilla para ejecutar e interactuar con LLMs. Los usuarios pueden arrastrar y soltar PDFs en los prompts. Mantener chats conversacionales e incluso probar flujos de trabajo multimodales que combinan texto e imágenes.

AnythingLLM: Construye un asistente personal de IA. Funciona sobre Ollama y permite cargar notas. Presentaciones o documentos para crear un tutor que genera cuestionarios y tarjetas de estudio para cursos, privado, rápido y gratuito.

LM Studio: Explora docenas de modelos. Basado en el popular framework llama.cpp. Ofrece una interfaz fácil de usar para correr modelos localmente. Los usuarios pueden cargar diferentes LLMs, chatear en tiempo real. E incluso montarlos como local API endpoints para integrarlos en proyectos personalizados.

Project G-Assist: Controla tu PC con IA. Con las últimas actualizaciones, los usuarios de PC ya pueden usar comandos de voz. O texto para ajustar la batería, ventiladores y configuraciones de rendimiento.

Los avances más recientes en GeForce RTX AI PCs incluyen:

Ollama obtiene un gran impulso de rendimiento en GeForce RTX: Las últimas actualizaciones incluyen hasta 50% más rendimiento optimizado. Para OpenAI’s gpt-oss-20B y hasta 60% más rápido en los modelos Gemma 3. Además de una programación de modelos más inteligente para reducir problemas de memoria y mejorar la eficiencia en múltiples GPU.

Llama.cpp y GGML optimizados para GeForce RTX: Las últimas mejoras ofrecen inferencia más rápida y eficiente en GPUs RTX. Incluyendo soporte para el modelo NVIDIA Nemotron Nano v2 9B, Flash Attention activado por defecto y optimizaciones con núcleos CUDA.

Descarga la actualización G-Assist v0.1.18 a través de la NVIDIA App. Con nuevos comandos para usuarios de laptops y mejor calidad en las respuestas.

Microsoft lanzó Windows ML con NVIDIA TensorRT para aceleración RTX, logrando hasta un 50% más de rapidez en inferencia. Despliegue más ágil y soporte para LLMs, diffusion y otros tipos de modelos en PCs con Windows 11.

 

Editor Banco de Noticias

Recent Posts

Ironman 70.3 Marbella. La preparación física ideal para una competencia extrema

Ironman 70.3 Marbella. La preparación física ideal para una competencia extrema Una competencia como esta…

16 hours ago

BYD estrena en Chile la primera flota de buses eléctricos articulados para el sistema RED

Se trata de 94 unidades de buses articulados BYD de 18 metros, totalmente eléctricos. Los…

2 days ago

Vinos para disfrutar cuando sube la temperatura

La primavera abre paso a una época donde el vino también cambia de ritmo. Los…

2 days ago

OMODA C7: Movilidad del Futuro, Tecnología que Inspira

El nuevo SUV de OMODA | JAECOO ya está disponible en Chile en tres versiones.…

2 days ago

Tesla Chile establece un récord en Latinoamérica con su show de luces de 200 autos

Este viernes 7 de noviembre entre las 19:00 y las 21:00 horas, Tesla logrará superar…

2 days ago

Ecommerce de alimentos crece y redefine la última milla refrigerada

Ecommerce de alimentos crece y redefine la última milla refrigerada Comprar fruta para el desayuno,…

2 days ago