Hey! Diario Digital || Plataforma global de noticias

6 maneras en que los cibercriminales pueden beneficiarse del ChatGPT

El chatGPT puede ser usado por los criminales.
Heydiariodigital_regalos

ChatGPT es un chatbot o sistema de chat desarrollado por OpenAI. Se trata de un modelo  basado en Inteligencia Artificial  que permite a las personas interactuar con este chatbot como si fuera una persona real a través de texto. Sin embargo, ESET, compañía líder en detección proactiva de amenazas, como toda tecnología, advierte que también presenta ciertos riesgos en términos de ciberseguridad.

Con ChatGPT se ve el avance de la democratización y accesibilidad del conocimiento, ¿pero acaso esto no está posibilitando también la democratización del cibercrimen? Investigaciones ya han demostrado que los cibercriminales ya comenzaron a utilizar ChatGPT para utilizarlo como herramienta para desarrollar código malicioso y realizar otro tipo de acciones fraudulentas.

Es evidente que debemos seguir este tema de cerca para ver cómo evoluciona y analizar lo que nos depara la evolución de la Inteligencia Artificial y sobre todo el Machine Learning”, comenta Sol González, Investigadora de Seguridad Informática de ESET Latinoamérica.

El ChatGPT se comunica de una manera amigable, y emplea un lenguaje accesible. Esto es lo que hace disruptiva a esta tecnología. El cambio que introduce es cómo los usuarios interactúan con esta tecnología, ya que permite que sea accesible para cualquier tipo de usuario.

 Además, ChatGPT permite infinidades de usos. Por ejemplo, para la automatización de procesos en diversas industrias, como educación, finanzas, salud, atención al cliente, etc. “Sin embargo, es importante tener presente, que al igual que toda tecnología, también presenta sus riesgos de seguridad”.

ChatGPT también es un servicio disponible para cualquiera que puede ser utilizado para facilitar ciertas tareas a cibercriminales”, agrega la investigadora de ESET.

ESET analiza 6 maneras en qué los cibercriminales pueden beneficiarse con ChatGPT:

Generación de fake news: En caso que se quiera generar un noticia falsa que se distribuya a lo largo de internet. ¿Qué se podría hacer? Apelando a la creatividad e ingresando los parámetros correspondientes en torno a lo que se quiere, esto es posible con esta plataforma.

Ataques de phishing: Es un hecho que cada vez resulta más difícil identificar los correos de phishing. Cada vez son  más dirigidos y por ende mucho más persuasivos. Hace unos años la redacción de los correos maliciosos era muchas veces absurda, hasta incluso con errores ortográficos.

La herramienta puede ser utilizada por actores maliciosos para generar correos electrónicos persuasivos de manera automatizada con la intención de engañar a las personas y que entreguen sus credenciales. Es un hecho que a través de ChatGPT se pueden crear correos electrónicos de phishing personalizados y muy convincentes para engañar a las víctimas y obtener información confidencial de una manera automatizada ”, confirma Gonzalez de ESET.

Robo de identidad: Los ciberdelincuentes pueden utilizar Chat-GPT para crear engaños que se presenten como si fueran de una institución confiable, como un banco o una empresa, con el objetivo de obtener información privada y financiera de las personas. Incluso pueden escribir en redes como si fueran celebridades.

Desarrollo de Malware: Esta plataforma puede ser de ayuda para el desarrollo de software, ya que se puede utilizar como herramienta para la generación de código en diversos lenguajes de programación. El malware también es un software, pero con fines maliciosos.

Automatización de procesos ofensivos: A la hora de realizar ataques dirigidos los cibercriminales suelen realizar un proceso de reconocimiento que incluye realizar ciertas tareas que tienden a ser repetitivas. Sin embargo, en los últimos años fueron surgiendo herramientas que permiten acortar los tiempos de estas tareas.

Chats maliciosos: ChatGPT cuenta con una API que permite alimentar a otros chats. Debido a su interfaz amigable, podría ser utilizada para muchos usos beneficiosos, pero lamentablemente también puede ser utilizada para usos maliciosos. Por ejemplo, para engañar a las personas y realizar estafas muy persuasivas.

Related Articles

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *