Tecnología

Lleva la IA de última generación directo a tu computadora

IA

Chile, 02 de octubre de 2025-. Cada vez más personas están ejecutando LLMs directamente en sus PCs. Para reducir costos de suscripción y tener mayor privacidad y control sobre sus proyectos. Con nuevos y avanzados open weight models y herramientas gratuitas para correrlos localmente. Más usuarios quieren experimentar con IA directamente en su laptop o escritorio.

Las GPU GeForce RTX aceleran estas experiencias, ofreciendo un rendimiento ágil y veloz. Y con las actualizaciones de Project G-Assist. Los usuarios de laptops ya pueden empezar a usar comandos de voz y texto con IA para controlar su PC.

El blog más reciente de RTX AI Garage de NVIDIA muestra cómo estudiantes, entusiastas de la IA. Y desarrolladores pueden comenzar a usar LLMs en PCs hoy mismo:

Ollama: Una de las formas más accesibles para empezar. Esta herramienta de código abierto ofrece una interfaz sencilla para ejecutar e interactuar con LLMs. Los usuarios pueden arrastrar y soltar PDFs en los prompts. Mantener chats conversacionales e incluso probar flujos de trabajo multimodales que combinan texto e imágenes.

AnythingLLM: Construye un asistente personal de IA. Funciona sobre Ollama y permite cargar notas. Presentaciones o documentos para crear un tutor que genera cuestionarios y tarjetas de estudio para cursos, privado, rápido y gratuito.

LM Studio: Explora docenas de modelos. Basado en el popular framework llama.cpp. Ofrece una interfaz fácil de usar para correr modelos localmente. Los usuarios pueden cargar diferentes LLMs, chatear en tiempo real. E incluso montarlos como local API endpoints para integrarlos en proyectos personalizados.

Project G-Assist: Controla tu PC con IA. Con las últimas actualizaciones, los usuarios de PC ya pueden usar comandos de voz. O texto para ajustar la batería, ventiladores y configuraciones de rendimiento.

Los avances más recientes en GeForce RTX AI PCs incluyen:

Ollama obtiene un gran impulso de rendimiento en GeForce RTX: Las últimas actualizaciones incluyen hasta 50% más rendimiento optimizado. Para OpenAI’s gpt-oss-20B y hasta 60% más rápido en los modelos Gemma 3. Además de una programación de modelos más inteligente para reducir problemas de memoria y mejorar la eficiencia en múltiples GPU.

Llama.cpp y GGML optimizados para GeForce RTX: Las últimas mejoras ofrecen inferencia más rápida y eficiente en GPUs RTX. Incluyendo soporte para el modelo NVIDIA Nemotron Nano v2 9B, Flash Attention activado por defecto y optimizaciones con núcleos CUDA.

Descarga la actualización G-Assist v0.1.18 a través de la NVIDIA App. Con nuevos comandos para usuarios de laptops y mejor calidad en las respuestas.

Microsoft lanzó Windows ML con NVIDIA TensorRT para aceleración RTX, logrando hasta un 50% más de rapidez en inferencia. Despliegue más ágil y soporte para LLMs, diffusion y otros tipos de modelos en PCs con Windows 11.

 

Editor Banco de Noticias

Recent Posts

Mañana entra en vigencia la norma Euro 6c: Revisa qué significa y cómo afectará al mercado automotriz

Desde el 30 de septiembre, todos los autos nuevos deberán cumplir con nuevas exigencias de…

24 mins ago

Hulu se convierte en la marca global de entretenimiento general en Disney+ partir del 8 de octubre

Hulu reemplazará la sección de Star en Disney+. Las mismas grandes historias, los mismos favoritos…

3 hours ago

El piloto de Kawasaki-Cidef, Patricio Cabrera es el primer latinoamericano en hacer historia en las 24 horas de Glen Helen

  Patricio Cabrera hará historia en motocross: será el primer Latinoamericano en las 24 Horas…

3 hours ago

OMODA | JAECOO Destaca Nuevamente en los World Car Awards 2026 con Cuatro Modelos Innovadores

El JAECOO 5 –que ya está a la venta en el país- y el OMODA…

4 hours ago

CHERY se adelanta al Cyber con impactantes descuentos de hasta 28%

La marca invita a adelantarse y aprovechar las ofertas que pone a disposición en su…

4 hours ago