Mientras más se avanza en la incorporación de la Inteligencia Artificial (IA) en diversos ámbitos, surge una temática tremendamente relevante en torno a la utilización de los datos para el entrenamiento de modelos de IA.
Ya estamos siendo testigos de casos como el de la demanda que puso The New York Times y Daily News a Open AI, alegando la utilización de su contenido protegido por derechos de autor para el entrenamiento de ChatGPT. Ante sucesos como este, cabe preguntarse hasta dónde es posible proteger la data, qué tipo de información está siendo usada para aplicaciones de IA y de qué fuentes proviene, entre muchas otras interrogantes fundamentales.
Sin duda, para la incorporación y masificación de una IA responsable y colaborativa será preciso una regulación efectiva referente a la utilización de datos para el entrenamiento de modelos de IA, sobre todo si se considera su alta complejidad y la diversidad de ecosistemas en los que opera.
Asimismo, la implementación de la IA exige principios éticos sólidos con la finalidad de que su uso sea responsable y apegado a la normativa. Una manipulación desacertada de los algoritmos que alimentan un aplicativo de IA puede perpetuar sesgos de género, edad, discapacidad, nacionalidad, religión, orientación sexual u otros tópicos, de manera negativa.
Además de lo anterior, los usuarios deben ser informados de manera transparente respecto de que están frente a un contenido, dispositivo o aplicativo de IA, ya que la dificultad de distinguir entre creaciones humanas y algoritmos es un desafío diario in crescendo.
Lo cierto es que las preocupaciones éticas y legales en torno a la IA no hacen más que aumentar. Ciertamente, la normativa europea, así como los proyectos locales de regulación son avances importantes. No obstante, falta concientización y una discusión mucho más seria de esta problemática. Aún queda mucho que aprender y pulir en esta revolución que ha venido a iniciar la IA.
Con todo, existe acuerdo de que, al momento de decidir por la ética en la IA, las compañías deben promover la colaboración multidisciplinaria, la capacitación permanente, establecer claros mecanismos de supervisión, proteger la privacidad del usuario y la de los datos sensibles. Aunque, probablemente, lo más relevante es fomentar la transparencia en los procesos de IA para permitir y facilitar su control, manteniendo la confianza de quién la utiliza.
SANTIAGO — En noviembre de este año se realizará la primera edición de SEO NIGHT…
Una nueva puerta al conocimiento y la innovación se abre para los jóvenes técnicos de…
Este 30 de julio, Chile le rinde homenaje a uno de sus platos más queridos…
En solo 25 minutos, Mac DeMarco agotó las entradas para su concierto en Chile, fijado…
Este proyecto internacional, que por primera vez llega a la comuna. Identifica las situaciones de…
Por segunda vez, Mercado Libre Experience busca conectar emprendedores con voces referentes dentro del ecosistema…