Otros reguladores en Europa y en otros lugares han comenzado a prestar mÔs atención después de la acción de Italia.
La compaƱĆa detrĆ”s de ChatGPT propondrĆ” medidas para resolver las preocupaciones sobre la privacidad de los datos que provocaron una prohibición temporal en Italia del chatbot de inteligencia artificial, dijeron los reguladores.
La autoridad italiana de protección de datos, conocida como Garante, bloqueó la semana pasada el popular chatbot de OpenAI, con sede en San Francisco y le ordenó detener temporalmente el procesamiento de la información personal de los usuarios italianos mientras investiga una posible violación de las normas de privacidad de datos de la Unión Europea.
Los expertos dijeron que era el primer caso de este tipo de una democracia que impone una prohibición a nivel nacional en una plataforma de inteligencia artificial convencional.
En una videollamada entre los comisionados del organismo de control y los ejecutivos de OpenAI, incluido el director ejecutivo Sam Altman, la compaƱĆa prometió establecer medidas para abordar las preocupaciones . Esos remedios no han sido detallados.
El organismo de control italiano dijo que no querĆa obstaculizar el desarrollo de la IA, pero enfatizó a OpenAI la importancia de cumplir con las estrictas reglas de privacidad de las 27 naciones de la UE .
Los reguladores impusieron la prohibición despuĆ©s de que los mensajes y la información de pago de algunos usuarios fueran expuestos a otros. TambiĆ©n cuestionaron si existe una base legal para que OpenAI recopile cantidades masivas de datos utilizados para entrenar los algoritmos de ChatGPT y expresaron su preocupación de que el sistema a veces podrĆa generar información falsa sobre las personas.
La llamada tecnologĆa de IA generativa como ChatGPT estĆ” āentrenadaā en grandes conjuntos de datos, incluidos libros digitales y escritos en lĆnea, y es capaz de generar texto que imita los estilos de escritura humanos.
Estos sistemas han creado revuelo en el mundo tecnológico y mĆ”s allĆ”, pero tambiĆ©n han despertado temores entre funcionarios, reguladores e incluso cientĆficos informĆ”ticos y lĆderes de la industria tecnológica sobre posibles riesgos Ć©ticos y sociales.
Otros reguladores en Europa y en otros lugares han comenzado a prestar mÔs atención después de la acción de Italia.
La Comisión de Protección de Datos de Irlanda dijo que estÔ «haciendo un seguimiento con el regulador italiano para comprender la base de su acción y nos coordinaremos con todas las Autoridades de Protección de Datos de la UE en relación con este asunto».
El regulador de privacidad de datos de Francia, CNIL, dijo que estÔ investigando después de recibir dos quejas sobre ChatGPT. El comisionado de privacidad de CanadÔ también abrió una investigación sobre OpenAI luego de recibir una queja sobre la sospecha de «recopilación, uso y divulgación de información personal sin consentimiento».
En una publicación de blog esta semana, la Oficina del Comisionado de Información del Reino Unido advirtió que Ā«las organizaciones que desarrollan o usan IA generativa deberĆan considerar sus obligaciones de protección de datos desde el principioĀ» y diseƱar sistemas con protección de datos como opción predeterminada.
En una aparente respuesta a las preocupaciones, OpenAI publicó una publicación de blog que describe su enfoque de la seguridad de la IA. La compaƱĆa dijo que trabaja para eliminar la información personal de los datos de entrenamiento cuando sea factible, afinar sus modelos para rechazar solicitudes de información personal de personas privadas y actĆŗa sobre solicitudes para eliminar información personal de sus sistemas.