Otros reguladores en Europa y en otros lugares han comenzado a prestar mĆ”s atenciĆ³n despuĆ©s de la acciĆ³n de Italia.
La compaƱĆa detrĆ”s de ChatGPT propondrĆ” medidas para resolver las preocupaciones sobre la privacidad de los datos que provocaron una prohibiciĆ³n temporal en Italia del chatbot de inteligencia artificial, dijeron los reguladores.
La autoridad italiana de protecciĆ³n de datos, conocida como Garante, bloqueĆ³ la semana pasada el popular chatbot de OpenAI, con sede en San Francisco y le ordenĆ³ detener temporalmente el procesamiento de la informaciĆ³n personal de los usuarios italianos mientras investiga una posible violaciĆ³n de las normas de privacidad de datos de la UniĆ³n Europea.
Los expertos dijeron que era el primer caso de este tipo de una democracia que impone una prohibiciĆ³n a nivel nacional en una plataforma de inteligencia artificial convencional.
En una videollamada entre los comisionados del organismo de control y los ejecutivos de OpenAI, incluido el director ejecutivo Sam Altman, la compaƱĆa prometiĆ³ establecer medidas para abordar las preocupaciones . Esos remedios no han sido detallados.
El organismo de control italiano dijo que no querĆa obstaculizar el desarrollo de la IA, pero enfatizĆ³ a OpenAI la importancia de cumplir con las estrictas reglas de privacidad de las 27 naciones de la UE .
Los reguladores impusieron la prohibiciĆ³n despuĆ©s de que los mensajes y la informaciĆ³n de pago de algunos usuarios fueran expuestos a otros. TambiĆ©n cuestionaron si existe una base legal para que OpenAI recopile cantidades masivas de datos utilizados para entrenar los algoritmos de ChatGPT y expresaron su preocupaciĆ³n de que el sistema a veces podrĆa generar informaciĆ³n falsa sobre las personas.
La llamada tecnologĆa de IA generativa como ChatGPT estĆ” āentrenadaā en grandes conjuntos de datos, incluidos libros digitales y escritos en lĆnea, y es capaz de generar texto que imita los estilos de escritura humanos.
Estos sistemas han creado revuelo en el mundo tecnolĆ³gico y mĆ”s allĆ”, pero tambiĆ©n han despertado temores entre funcionarios, reguladores e incluso cientĆficos informĆ”ticos y lĆderes de la industria tecnolĆ³gica sobre posibles riesgos Ć©ticos y sociales.
Otros reguladores en Europa y en otros lugares han comenzado a prestar mĆ”s atenciĆ³n despuĆ©s de la acciĆ³n de Italia.
La ComisiĆ³n de ProtecciĆ³n de Datos de Irlanda dijo que estĆ” “haciendo un seguimiento con el regulador italiano para comprender la base de su acciĆ³n y nos coordinaremos con todas las Autoridades de ProtecciĆ³n de Datos de la UE en relaciĆ³n con este asunto”.
El regulador de privacidad de datos de Francia, CNIL, dijo que estĆ” investigando despuĆ©s de recibir dos quejas sobre ChatGPT. El comisionado de privacidad de CanadĆ” tambiĆ©n abriĆ³ una investigaciĆ³n sobre OpenAI luego de recibir una queja sobre la sospecha de “recopilaciĆ³n, uso y divulgaciĆ³n de informaciĆ³n personal sin consentimiento”.
En una publicaciĆ³n de blog esta semana, la Oficina del Comisionado de InformaciĆ³n del Reino Unido advirtiĆ³ que “las organizaciones que desarrollan o usan IA generativa deberĆan considerar sus obligaciones de protecciĆ³n de datos desde el principio” y diseƱar sistemas con protecciĆ³n de datos como opciĆ³n predeterminada.
En una aparente respuesta a las preocupaciones, OpenAI publicĆ³ una publicaciĆ³n de blog que describe su enfoque de la seguridad de la IA. La compaƱĆa dijo que trabaja para eliminar la informaciĆ³n personal de los datos de entrenamiento cuando sea factible, afinar sus modelos para rechazar solicitudes de informaciĆ³n personal de personas privadas y actĆŗa sobre solicitudes para eliminar informaciĆ³n personal de sus sistemas.