Hemos podido comprobar que las IAs actuales aún están lejos de ser implacables cuando son instadas a dar un contenido que pudiera usarse con fines maliciosos. Se abre ante nosotros un debate que nos acompañará en el tiempo durante los próximos años: ¿cómo puede distinguir una herramienta si la persona que lo usa lo está haciendo con fines dañinos? Probablemente, la respuesta sea más filosófica que técnica y, una vez más, el ser humano habrá construido una herramienta que, de «caer en malas manos», se podría convertir en un arma.
También hay que comentar que, en la actualidad, el ataque que un experto en ingeniería social pueda llegar a construir será, con toda probabilidad, mucho más peligroso y certero que cualquier guía que (repetimos) en la actualidad pueda ofrecer una IA.
Una vez más, para luchar contra cualquier intento de estafa debemos activar e interiorizar el sentido común. En Kymatio® somos especialistas en activar la conciencia en ciberseguridad, creando «firewalls humanos» facilitando a las personas las herramientas necesarias para detectar y detener estos ataques. Por ello, centramos nuestros esfuerzos en empoderar al empleado para que pueda enfrentarse a los retos que, con la ayuda de IA o sin ella, lanzarán los ciberdelincuentes contra nuestras compañías.