Hey! Diario Digital || Plataforma global de noticias

Aumentan críticas a la Inteligencia Artificial

Heydiariodigital_regalos

Sigue el debate sobre la IA. Fue dado a conocer un informe de investigadores de la Universidad de Stanford que han entrevistado a expertos en el tema. 

Los resultados indican que 36% de los encuestados opinan que la IA puede provocar “catástrofes a nivel nuclear”. 

El informe de la Universidad de Stanford, que pasa a formar parte del debate sobre la IA, arrojó que los temores sobre esta tecnología se centran en el daño que puede provocar a la sociedad. 

57% de los encuestados por el estudio indicaron que la carrera de Microsoft y Google  por el control de la IA está llevando a los investigadores a crear inteligencias artificiales generales en vez de degenerativas.

Así el 58% de los investigadores que participaron en el estudio indica que el escenario más probable es que los humanos van a perder el control del crecimiento tecnológico. 

El debate sobre la IA en torno a las consecuencias de su futuro inmediato se inició con una carta firmada por más de mil 200 expertos que incluyen a Elon Musk, fundador de Tesla y Steve Wozniak, cofundador de Apple. 

ChaosGPT

Más experimentos usando la inteligencia artificial reportan resultados nada buenos para el futuro de la humanidad. 

Hace unas semanas una programadora habría conectado a un juguete Furby a el ChatGPT y señaló en Twitter: “Conecté chatgpt a un furby y creo que esto puede ser el comienzo de algo malo para la humanidad”  

Ahora se trata de un bot programado con IA para twitter a quien se le dio la tarea de acabar con la humanidad.

El bot enumeró algunas maneras de acabar con los seres humanos a trav´s del reclutamiento de otros agentes de IA, investigar armas nucleares y enviar tuets siniestros sobre la humanidad. 

Antes de establecer los “objetivos”, el usuario habilitó el “modo continuo”, en el que apareció una advertencia que indicaba que los comandos podrían “ejecutarse para siempre o llevar a cabo acciones que normalmente no autorizaría”.

Related Articles

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *