ChatGPT vs CAPTCHA: Cuando la IA desafía al test de Turing
¿Cómo puede el lector saber si un texto ha sido escrito por un humano o por una inteligencia artificial? Pongamos un ejemplo más concreto: Tenemos que hacer una redacción sobre el cine de ciencia ficción de los años 80 y recurrimos a ChatGPT para escribirlo.
¿Qué podía suceder?:
- ¿Le daría a su discurso el mismo aire nostálgico como adoptamos las personas al hablar por ejemplo, de las películas de nuestra infancia y adolescencia?
- ¿Acabaría de una forma u otra hablando de sí misma como principal ejemplo de inteligencia artificial?
- ¿Cómo describiría las predicciones que se hicieron hace 40 años, del estado de la tecnología actual?
Con la cantidad y variedad de referencias y de fuentes de información con la que se entrena la inteligencia artificial, es muy probable que esto lo realice bien y no fuera sencillo a simple vista decir que el autor no es humano. ¿Y si le digo que escoja su película de ciencia ficción de los 80 favorita y explique el por qué?
A lo mejor se decanta por ‘E.T’ (1982) su tono familiar y romántico y el anhelo de conexión intergaláctica (aunque al final el pobre deseara volver a su casa escopetado). O puede que sea más de ‘Regreso al Futuro’ (1985) con sus planteamientos divertidos y no tan descabellados del futuro: coches voladores, aeropatines, drones paseando a mascotas, pagos mediante biometría o una familia entera enganchada a sus gadgets digitales… y la posibilidad de retroceder y arreglar aquellas decisiones que nos llevan a un futuro erróneo. Puede que nos dejara un poco inquietos en caso de escoger ‘Blade Runner’ (1982), con su “he visto cosas que vosotros no creeríais (…)”.
Fuera cual fuera su elección, y volviendo a la pregunta inicial, está claro que sería complicado diferenciar de forma fiable si esa redacción la ha hecho un robot o un humano, dadas las capacidades de comunicación y lenguaje natural que han desarrollado estas tecnologías, entrenadas para mantener conversaciones y facilitar la relación con el usuario.
“Soy humano”. El CAPTCHA y su origen en la comunidad hacker
No es la primera vez que tenemos esta duda sobre si nuestro interlocutor es persona o máquina. Hablando de comunicación y de capacidades humanas, en los 80 también aparece un modo de comunicación curioso, que más allá de lo anecdótico, puede que ahora tenga más impacto del que se esperaba: la aparición del ‘leetspeak’ o escritura ‘leet’.
El ‘leetspeak’ se caracteriza por escribir caracteres alfanuméricos de una forma incomprensible para otros usuarios ajenos, inexpertos a los diferentes grupos que utilizan esta escritura.
Ejemplo mensaje en ‘leetspeak’: [hola , como estas?] H0L4, C0M0 35745?,
Esta invención del ‘leetspeak’ se basa en una cualidad humana muy potente, la de autocompletar cadenas a las que les falta alguna palabra o en la que se han sustituido algunos caracteres. Su origen se asocia a una forma de comunicación exclusiva empleada por una élite para crear realidades más exclusivas (en la que usuarios más inexpertos no supieran de qué se hablaba), que pronto aprovecharon los ‘hackers’ para eludir filtros de seguridad.
Un impacto claro del ‘leetspeak’ es que ha servido de punto de partida para la creación de estos CAPTCHA a los que estamos tan acostumbrados en nuestro día a día digital, que puede considerarse una declaración de humanidad en toda regla (un test de Turing inverso), mediante el correspondiente ‘check’ o que reconociendo una serie de caracteres distorsionados como solo los humanos podemos.
¿Por qué necesitamos el CAPTCHA? Llevamos rodeados de robots más tiempo del que recordamos y empresas y servicios a veces necesitan distinguir de forma clara entre ‘bots’ y humanos, así que directamente nos lo preguntan.
La mayoría de estos robots que realizan tareas repetitivas automatizadas, diseñados para imitar el comportamiento humano, son una realidad y hacen nuestras vida digital más fácil ofreciendo atención y oferta mucho más personalizada. Pero también se pueden usar con fines malintencionados: desde generar cuentas de redes sociales falsas o miles de seguidores al instante en instagram, comprar rápidamente todas las entradas para un concierto popular para su posterior reventa u orquestar un ataque de denegación de servicio distribuido (DDoS) a gran escala.
“Hola, no soy un Robot, y esto no es un ataque de ingeniería social”
Que los robots están entre nosotros es una realidad y no tanto el guión de una película futurista. Estas semanas, la proliferación de contenidos sobre ChatGPT ha eliminado cualquier duda, y ha ahondado en sus múltiples usos.
Como era de esperar, no todo son bondades, y ya se han identificado potenciales usos fraudulentos en el ámbito digital y de la ciberseguridad: la industrialización de la ingeniería social. ChatGPT tiene el potencial de ser una gran herramienta para la creación y personalización de páginas web maliciosas, campañas de phishing altamente dirigidas y estafas que dependen de la ingeniería social, como el ‘deepfake’.
Regulación y supervisión están velando por los usos que se realizan, y aunque nos vendría muy bien el desarrollo de un “CAPTCHA de bolsillo” para poder pasárselo a cada mensaje que recibimos y ver si es generado por un ‘bot’ maligno o por un humano con buenas intenciones, la verdad es que no estamos indefensos.
Podemos poner en marcha todas las medidas de prevención que tenemos disponibles en la banca online para estar protegidos contra intentos de ataque por ingeniería social, por ejemplo, sacar el máximo partido a la tecnología biométrica para combatir la suplantación de identidades, e incorporando otra serie de hábitos sencillos harán que cada uno de nosotros seamos menos vulnerables frente a cualquier tipo de interlocutor.