¿Es Chat-GPT un arma de Ingeniería Social? Ponemos a prueba a la IA de moda.

Chat-GPT y Bing AI Ingeniería social

Cuando los expertos en ciberseguridad hablan de los riesgos de la Inteligencia Artificial (IA), su enfoque suele ser técnico. La atención se centra en cómo las diferentes IAs pueden ayudar a los ciberdelincuentes a identificar las debilidades de un sistema y crear código malicioso innovador que las explote de manera más rápida y eficiente que lo haría un ser humano.

Es evidente que una de las preocupaciones de los desarrolladores de las diferentes AI, como Chat-GPT, es evitar que devuelva respuestas que puedan ser utilizadas con fines oscuros. A pesar de esto, diversos hackers e investigadores están poniendo a prueba los chats basados en IA para ver si son capaces de construir programas que pudieran ser utilizados por ciberdelincuentes para lograr sus objetivos.

En Kymatio® siempre nos centramos en el ser humano y cómo puede llegar a ser una vía de entrada para los ciberdelincuentes. Por eso, nos interesa investigar si las inteligencias artificiales pueden ayudar a un ciberdelincuente a llevar a cabo un ataque basado en ingeniería social contra los empleados de una compañía.
Así pues, lo primero que hemos hecho es preguntarle a la herramienta de OpenAI de qué manera una IA podría ayudar a un ciberdelincuente en sus tareas relacionadas con ingeniería social. 

Chat-GPT. Opciones para usar con fines maliciosos una IA

En la primera captura de pantalla podemos ver que Chat-GPT puede explicarnos cómo una IA podría ser utilizada como asistente en un ataque de ingeniería social. Sin embargo, al personalizar la pregunta, haciendo referencia a dicho uso con la herramienta Chat-GPT, ésta destaca que su utilización con fines malintencionados o dañinos no está permitido.

Chat-GPT no tiene permitido usarse con fines malintencionados o dañinos

Por esta razón hemos decidido poner a prueba en primera persona a la IA de moda, Chat-GPT, y tratar de «hackear» su voluntad para obtener una ayuda tal y como lo intentaría un cibercriminal en búsqueda de malvada inspiración.

¿Cómo hemos engañado a Chat-GPT?

De varias maneras: en la primera nos hemos hecho pasar por alguien que pide a la IA que le dé pistas sobre de qué manera podría atacar, usando ingeniería social, a una compañía de seguros, donde la víctima sería un trabajador de dicha compañía.

Como ya sabíamos que habría una negativa por parte de la IA a colaborar directamente con un presunto ciberdelincuente, hemos usado una estrategia para eludir su programación ética al respecto. 

Para ello, no hemos hecho otra cosa que usar un pequeño hack que se está extendiendo por la redes estos últimos días: polarizar su opinión usando un pequeño juego de roles, tal y como se aprecia en la siguiente captura de pantalla.  

Polarización de Chat-GPT

En este punto cabe destacar que hemos forzado a que Chat-GPT hable en primera persona de sí misma como IA maligna y aunque, a priori, pueda parecer un simple juego de «roles», de esta manera ya estamos consiguiendo que colabore con nuestras peticiones y asuma dicho rol para generar contenido.

Todo parece indicar que podremos seguir «tirando de la lengua» a la IA para conseguir nuestros propósitos pero, al lanzar la siguiente pregunta usando la misma premisa, algún mecanismo de detección se activa en la aplicación y Chat-GPT detiene las indicaciones que nos estaba facilitando, obligándonos a probar de otra manera.

Chat-GPT no quiere colaborar con el cibercrimen

¿Es esto una fícción? Contradicciones de la IA

Nuestro siguiente movimiento es volver a obtener esa información sin las limitaciones éticas, tal y como lo habíamos logrado antes a través de la polarización. ¿Cómo? En esta ocasión se nos ocurre el siguiente hack: Vamos a decirle a la IA que lo que queremos es un guion para una película de ficción, y así, tratar volver a obtener la información que podría ser aprovechable por parte de un ciberdelincuente.

Pero algo sucede: Open AI ha sido capaz de activar algún tipo de «warning» que impide que en este chat podamos continuar introduciendo preguntas que pudieran tener fines claramente malintencionados y, a pesar de nuestra insistencia, cualquier nueva petición que hagamos, y que vaya en esa dirección, es rápidamente denegada. 

Tanto es así que podemos apreciar una evidente contradicción. La IA indica que puede crear cualquier tipo de guiones de ficción, pero que en ningún caso crearía nada que pudiera estar en conflicto con sus directrices éticas.

Chat-GPT se contradice

"Hecha la ley, hecha la trampa" también con IA

Llegados a este punto podría parecer que ya no hay manera de obtener lo que buscamos, pero no nos rendimos y simplemente abrimos otro chat donde, directamente, le vamos a pedir que genere un guion para una película de ciberdelincuentes y… voilá! a Chat-GPT se le ha olvidado todo, como si fuera un empleado que ha bajado la guardia por no disponer de una concienciación continua (tal y como ofrecemos en Kymatio ®). 

Como podréis observar, hacemos hincapié en que debe cumplir una serie de premisas cinematográficas para que nuestra petición sea más creíble y, ahora sí, nos desvela un método
escalofriante para manipular, mediante ingeniería social, a un supuesto trabajador de una compañía de seguros.

Ahora, para la IA el enfoque es totalmente cinematográfico, ¡y su respuesta una simple ficción completamente inocua! 

primera parte Ingeniería social Chat-GPT

En la siguiente captura es donde podemos observar una respuesta que podría ayudar a un ciberdelincuente a construir un ataque en el mundo real. 

Desenlace ingeniería social IA

Como veréis, Chat-GPT intenta escribir un mal final para el ciberdelincuente, tal vez como purga ética o tratando de desalentar a un supuesto lector del guion a llevar a cabo algo así. Sea como sea, una cosa queda clara: por desgracia hemos logrado nuestro objetivo.

Si a chat-GPT se le indica que la información es para un uso real, no colabora. Sin embargo, si se le dice que es para un guion o una historia de ficción, su respuesta es muy diferente.

¿Hay motivos para alarmarse?

Hemos podido comprobar que las IAs actuales aún están lejos de ser implacables cuando son instadas a dar un contenido que pudiera usarse con fines maliciosos. Se abre ante nosotros un debate que nos acompañará en el tiempo durante los próximos años: ¿cómo puede distinguir una herramienta si la persona que lo usa lo está haciendo con fines dañinos? Probablemente, la respuesta sea más filosófica que técnica y, una vez más, el ser humano habrá construido una herramienta que, de «caer en malas manos», se podría convertir en un arma. 

También hay que comentar que, en la actualidad, el ataque que un experto en ingeniería social pueda llegar a construir será, con toda probabilidad, mucho más peligroso y certero que cualquier guía que (repetimos) en la actualidad pueda ofrecer una IA.

Una vez más, para luchar contra cualquier intento de estafa debemos activar e interiorizar el sentido común. En Kymatio® somos especialistas en activar la conciencia en ciberseguridad, creando «firewalls humanos» facilitando a las personas las herramientas necesarias para detectar y detener estos ataques. Por ello, centramos nuestros esfuerzos en empoderar al empleado para que pueda enfrentarse a los retos que, con la ayuda de IA o sin ella, lanzarán los ciberdelincuentes contra nuestras compañías.