Mientras más se avanza en la incorporación de la Inteligencia Artificial (IA) en diversos ámbitos, surge una temática tremendamente relevante en torno a la utilización de los datos para el entrenamiento de modelos de IA.
Ya estamos siendo testigos de casos como el de la demanda que puso The New York Times y Daily News a Open AI, alegando la utilización de su contenido protegido por derechos de autor para el entrenamiento de ChatGPT. Ante sucesos como este, cabe preguntarse hasta dónde es posible proteger la data, qué tipo de información está siendo usada para aplicaciones de IA y de qué fuentes proviene, entre muchas otras interrogantes fundamentales.
Sin duda, para la incorporación y masificación de una IA responsable y colaborativa será preciso una regulación efectiva referente a la utilización de datos para el entrenamiento de modelos de IA, sobre todo si se considera su alta complejidad y la diversidad de ecosistemas en los que opera.
Asimismo, la implementación de la IA exige principios éticos sólidos con la finalidad de que su uso sea responsable y apegado a la normativa. Una manipulación desacertada de los algoritmos que alimentan un aplicativo de IA puede perpetuar sesgos de género, edad, discapacidad, nacionalidad, religión, orientación sexual u otros tópicos, de manera negativa.
Además de lo anterior, los usuarios deben ser informados de manera transparente respecto de que están frente a un contenido, dispositivo o aplicativo de IA, ya que la dificultad de distinguir entre creaciones humanas y algoritmos es un desafío diario in crescendo.
Lo cierto es que las preocupaciones éticas y legales en torno a la IA no hacen más que aumentar. Ciertamente, la normativa europea, así como los proyectos locales de regulación son avances importantes. No obstante, falta concientización y una discusión mucho más seria de esta problemática. Aún queda mucho que aprender y pulir en esta revolución que ha venido a iniciar la IA.
Con todo, existe acuerdo de que, al momento de decidir por la ética en la IA, las compañías deben promover la colaboración multidisciplinaria, la capacitación permanente, establecer claros mecanismos de supervisión, proteger la privacidad del usuario y la de los datos sensibles. Aunque, probablemente, lo más relevante es fomentar la transparencia en los procesos de IA para permitir y facilitar su control, manteniendo la confianza de quién la utiliza.
Kia Chile fue distinguido con el premio Partnership of the Year durante el 2026 Kia Global Distributors…
El 15% de batería solía ser el final de la vida digital. Hoy, para un…
En un mundo cada vez más digitalizado, la inteligencia artificial (IA) se ha convertido en…
El informe Global Cybersecurity Outlook 2026 del WEF revela una brecha crítica: mientras en EE.…
Tres bartenders del centro gastronómico de moda de Bellavista, conversan sobre sus cócteles y maridajes…
La música urbana latina entra en una nueva etapa con el lanzamiento de SUPERARTE. El esperado…