Hey! Diario Digital || Plataforma global de noticias

OpenAI intenta resolver prohibición de ChatGPT en Italia

La compañía detrás de ChatGPT propondrá medidas para resolver las preocupaciones sobre la privacidad de los datos que provocaron una prohibición temporal en Italia del chatbot de inteligencia artificial, dijeron los reguladores.
Heydiariodigital_regalos

Otros reguladores en Europa y en otros lugares han comenzado a prestar más atención después de la acción de Italia.

La compañía detrás de ChatGPT propondrá medidas para resolver las preocupaciones sobre la privacidad de los datos que provocaron una prohibición temporal en Italia del chatbot de inteligencia artificial, dijeron los reguladores.

La autoridad italiana de protección de datos, conocida como Garante, bloqueó la semana pasada el popular chatbot de OpenAI, con sede en San Francisco  y le ordenó detener temporalmente el procesamiento de la información personal de los usuarios italianos mientras investiga una posible violación de las normas de privacidad de datos de la Unión Europea.

Los expertos dijeron que era el primer caso de este tipo de una democracia que impone una prohibición a nivel nacional en una plataforma de inteligencia artificial convencional.

En una videollamada entre los comisionados del organismo de control y los ejecutivos de OpenAI, incluido el director ejecutivo Sam Altman, la compañía prometió establecer medidas para abordar las preocupaciones . Esos remedios no han sido detallados.

El organismo de control italiano dijo que no quería obstaculizar el desarrollo de la IA, pero enfatizó a OpenAI la importancia de cumplir con las estrictas reglas de privacidad de las 27 naciones de la UE .

Los reguladores impusieron la prohibición después de que los mensajes y la información de pago de algunos usuarios fueran expuestos a otros. También cuestionaron si existe una base legal para que OpenAI recopile cantidades masivas de datos utilizados para entrenar los algoritmos de ChatGPT y expresaron su preocupación de que el sistema a veces podría generar información falsa sobre las personas.

La llamada tecnología de IA generativa como ChatGPT está “entrenada” en grandes conjuntos de datos, incluidos libros digitales y escritos en línea, y es capaz de generar texto que imita los estilos de escritura humanos.

Estos sistemas han creado revuelo en el mundo tecnológico y más allá, pero también han despertado temores entre funcionarios, reguladores e incluso científicos informáticos y líderes de la industria tecnológica sobre posibles riesgos éticos y sociales.

Otros reguladores en Europa y en otros lugares han comenzado a prestar más atención después de la acción de Italia.

La Comisión de Protección de Datos de Irlanda dijo que está “haciendo un seguimiento con el regulador italiano para comprender la base de su acción y nos coordinaremos con todas las Autoridades de Protección de Datos de la UE en relación con este asunto”.

El regulador de privacidad de datos de Francia, CNIL, dijo que está investigando después de recibir dos quejas sobre ChatGPT. El comisionado de privacidad de Canadá también abrió una investigación sobre OpenAI luego de recibir una queja sobre la sospecha de “recopilación, uso y divulgación de información personal sin consentimiento”.

En una publicación de blog esta semana, la Oficina del Comisionado de Información del Reino Unido advirtió que “las organizaciones que desarrollan o usan IA generativa deberían considerar sus obligaciones de protección de datos desde el principio” y diseñar sistemas con protección de datos como opción predeterminada.

En una aparente respuesta a las preocupaciones, OpenAI publicó una publicación de blog que describe su enfoque de la seguridad de la IA. La compañía dijo que trabaja para eliminar la información personal de los datos de entrenamiento cuando sea factible, afinar sus modelos para rechazar solicitudes de información personal de personas privadas y actúa sobre solicitudes para eliminar información personal de sus sistemas.

Related Articles

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *