Hey! Diario Digital || Plataforma global de noticias

OpenAI intenta resolver prohibiciĆ³n de ChatGPT en Italia

La compaƱƭa detrĆ”s de ChatGPT propondrĆ” medidas para resolver las preocupaciones sobre la privacidad de los datos que provocaron una prohibiciĆ³n temporal en Italia del chatbot de inteligencia artificial, dijeron los reguladores.
Heydiariodigital_regalos

Otros reguladores en Europa y en otros lugares han comenzado a prestar mĆ”s atenciĆ³n despuĆ©s de la acciĆ³n de Italia.

La compaƱƭa detrĆ”s de ChatGPT propondrĆ” medidas para resolver las preocupaciones sobre la privacidad de los datos que provocaron una prohibiciĆ³n temporal en Italia del chatbot de inteligencia artificial, dijeron los reguladores.

La autoridad italiana de protecciĆ³n de datos, conocida como Garante, bloqueĆ³ la semana pasada el popular chatbot de OpenAI, con sede en San Francisco  y le ordenĆ³ detener temporalmente el procesamiento de la informaciĆ³n personal de los usuarios italianos mientras investiga una posible violaciĆ³n de las normas de privacidad de datos de la UniĆ³n Europea.

Los expertos dijeron que era el primer caso de este tipo de una democracia que impone una prohibiciĆ³n a nivel nacional en una plataforma de inteligencia artificial convencional.

En una videollamada entre los comisionados del organismo de control y los ejecutivos de OpenAI, incluido el director ejecutivo Sam Altman, la compaƱƭa prometiĆ³ establecer medidas para abordar las preocupaciones . Esos remedios no han sido detallados.

El organismo de control italiano dijo que no querĆ­a obstaculizar el desarrollo de la IA, pero enfatizĆ³ a OpenAI la importancia de cumplir con las estrictas reglas de privacidad de las 27 naciones de la UE .

Los reguladores impusieron la prohibiciĆ³n despuĆ©s de que los mensajes y la informaciĆ³n de pago de algunos usuarios fueran expuestos a otros. TambiĆ©n cuestionaron si existe una base legal para que OpenAI recopile cantidades masivas de datos utilizados para entrenar los algoritmos de ChatGPT y expresaron su preocupaciĆ³n de que el sistema a veces podrĆ­a generar informaciĆ³n falsa sobre las personas.

La llamada tecnologĆ­a de IA generativa como ChatGPT estĆ” ā€œentrenadaā€ en grandes conjuntos de datos, incluidos libros digitales y escritos en lĆ­nea, y es capaz de generar texto que imita los estilos de escritura humanos.

Estos sistemas han creado revuelo en el mundo tecnolĆ³gico y mĆ”s allĆ”, pero tambiĆ©n han despertado temores entre funcionarios, reguladores e incluso cientĆ­ficos informĆ”ticos y lĆ­deres de la industria tecnolĆ³gica sobre posibles riesgos Ć©ticos y sociales.

Otros reguladores en Europa y en otros lugares han comenzado a prestar mĆ”s atenciĆ³n despuĆ©s de la acciĆ³n de Italia.

La ComisiĆ³n de ProtecciĆ³n de Datos de Irlanda dijo que estĆ” “haciendo un seguimiento con el regulador italiano para comprender la base de su acciĆ³n y nos coordinaremos con todas las Autoridades de ProtecciĆ³n de Datos de la UE en relaciĆ³n con este asunto”.

El regulador de privacidad de datos de Francia, CNIL, dijo que estĆ” investigando despuĆ©s de recibir dos quejas sobre ChatGPT. El comisionado de privacidad de CanadĆ” tambiĆ©n abriĆ³ una investigaciĆ³n sobre OpenAI luego de recibir una queja sobre la sospecha de “recopilaciĆ³n, uso y divulgaciĆ³n de informaciĆ³n personal sin consentimiento”.

En una publicaciĆ³n de blog esta semana, la Oficina del Comisionado de InformaciĆ³n del Reino Unido advirtiĆ³ que “las organizaciones que desarrollan o usan IA generativa deberĆ­an considerar sus obligaciones de protecciĆ³n de datos desde el principio” y diseƱar sistemas con protecciĆ³n de datos como opciĆ³n predeterminada.

En una aparente respuesta a las preocupaciones, OpenAI publicĆ³ una publicaciĆ³n de blog que describe su enfoque de la seguridad de la IA. La compaƱƭa dijo que trabaja para eliminar la informaciĆ³n personal de los datos de entrenamiento cuando sea factible, afinar sus modelos para rechazar solicitudes de informaciĆ³n personal de personas privadas y actĆŗa sobre solicitudes para eliminar informaciĆ³n personal de sus sistemas.

Related Articles

Deja una respuesta

Tu direcciĆ³n de correo electrĆ³nico no serĆ” publicada. Los campos obligatorios estĆ”n marcados con *