5 Grupos hackers intentan utilizar OpenAI para fines ilegales

Foto: ¡1000 maneras de morir con ChatGPT! Ofrece información médica incorrecta/Cortesía
Foto: ¡1000 maneras de morir con ChatGPT! Ofrece información médica incorrecta/Cortesía

El poder que tiene la inteligencia artificial en el mundo actual no es nuevo, si bien esto ha venido ha ser una ayuda para todos y facilitar las tareas diarias; hay algunos que lo quieren utilizar con fines malicioso.Pero ahora; Microsoft y OpenAI han divulgado una investigación sobre cómo los principales grupos de hackers afiliados a Rusia, China, Irán y Corea del Norte están sacándoles provecho para mejorar sus ciberataques.

De acuerdo con ambas compañías, los piratas informáticos usan ChatGPT y los modelos de lenguaje de gran tamaño (LLM) como «herramientas de productividad» para generar nuevos ataques. Y si bien los investigadores concluyeron que todavía no se crearon técnicas de abuso únicas potenciadas por IA, sí se observa un incremento en la atención hacia las utilidades de OpenAI para tratar de aplicarlas en terreno malicioso.

«Los grupos cibercriminales, las amenazas vinculadas con estados nación y otros adversarios están explorando y probando diferentes tecnologías de inteligencia artificial a medida que surgen, en un intento de comprender el valor potencial de sus operaciones y los controles de seguridad que posiblemente deban evadir», explicó Microsoft.

Foto: ¡1000 maneras de morir con ChatGPT! Ofrece información médica incorrecta/Cortesía
Foto: OpenAI ha detectado 5 grupos de hackers/Cortesía

OpenAI ha detectado 5 grupos de hackers 

Por su parte, OpenAI indicó que cinco grupos de hackers fueron detectados utilizando sus herramientas para fines ilegítimos. Dos de ellos tenían conexión con el gobierno chino, mientras que los restantes estaban afiliados con Rusia, Corea del Norte e Irán. La compañía no solo identificó las cuentas que utilizaban para acceder a ChatGPT, sino que también las dio de baja.

Durante su investigación, OpenAI y Microsoft concluyeron que el uso de ChatGPT por parte de los hackers seguía lineamientos bastante similares. Por ejemplo, utilizaban el chatbot de inteligencia artificial para traducir documentos, para programar y buscar errores en el código; y para generar contenidos que se pudieran usar en campañas de phishing o spear phishing. Aunque también registraron algunos comportamientos más específicos.

Los ingenieros informáticos se encuentran investigando como dar una solución y encontrar cual es la falla dentro del sistema que hace  que estos grupos hacker puedan utilizar las herramientas para fines maliciosos

Hiper Textual