Hey! Diario Digital || Plataforma global de noticias

Yudkowsky alerta sobre peligros de la IA

Heydiariodigital_regalos

En un artículo publicado por la revista Time, Eliezer Yudkowsky alerta sobre peligros de la IA.

Yudkowsky, considerado uno de los mayores expertos en inteligencia artificial publicó un artículo titulado “Pausar el desarrollo no es suficiente. Tenemos que cerrarlo todo”. 

Hace una semana, un grupo de más de mil investigadores, entre los que se encuentra Elon Musk y Steven Wozniak, pidieron mediante una carta pausar la IA, por al menos 6 meses.

El documento igualmente alertaba sobre los peligros de la IA “una peligrosa carrera que está llevando al desarrollo de modelos más impredecibles y con capacidades cada vez mayores”. 

“Me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide muy poco para resolverla” indica Yudkowsky en su articulo.

En su alerta sobre los peligros de la IA Yudkowsky indica que el tema clave no es la inteligencia “competitiva humana” (como dice la carta abierta); “es lo que sucede después de que la IA llega a una inteligencia más inteligente que la humana”. 

“Todos moriremos”

Yudkowsky afirma que el resultado más probable de construir una IA sobrehumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las actuales, es que, “literalmente, todos en la Tierra moriremos”.

El experto asegura que no es posible calcular de antemano qué sucede y cuándo. Por lo tanto, se requiere de una preparación y precisión que “en este momento no tenemos”. 

Afirma que, sin esa precisión y preparación, el resultado más probable es una IA que no hace lo que el humano ordena y no se preocupa por la vida sensible en general.

“En ausencia de ese cuidado, obtenemos que la IA no te ama, ni te odia, y estás hecho de átomos que puede usar para otra cosa”, indica.

Related Articles

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *