Superinteligencia artificial, el futuro donde la IA superaría al razonamiento humano
La superinteligencia artificial es un concepto teórico que implica la existencia de una IA con capacidades de procesamiento superiores a las del cerebro humano e incluso de razonamiento. Este avance podría ser una realidad en el futuro, y los expertos se debaten entre la fascinación por sus capacidades y las dudas sobre cómo evaluar sus riesgos para evitar que sea incontrolable.
Los androides de 'Star Wars' poseen la habilidad de comprender a los humanos y de desarrollar deseos propios. El asistente personal de 'Her' muestra capacidades emocionales tan avanzadas que incluso llega a enamorarse. El ordenador HAL de '2001: Una odisea en el espacio' se rebela contra sus tripulantes con el fin de tomar el control de la nave espacial. Son ejemplos procedentes de la ciencia ficción, pero representan las mejores muestras de una tecnología que en un futuro podría ser realidad: la superinteligencia artificial.
La superinteligencia artificial es un hipotético sistema de IA que tendría "un alcance intelectual más allá de la inteligencia humana", según un artículo de IBM. Esta herramienta dispondría de funciones cognitivas de vanguardia y una capacidad de procesamiento muy desarrollada, lo que permitiría resolver complejos problemas a los que se enfrentan campos como la sanidad, las finanzas o la investigación científica.
Todavía se desconocen los beneficios concretos que tendría una superinteligencia artificial, pero sería equivalente a tener un superordenador casi perfecto disponible las 24 horas del día. De esta manera, podría analizar y razonar sobre cualquier cantidad de datos con una velocidad que todavía se desconoce. “Será ideal para tareas como la conducción segura de los coches autónomos o la asistencia durante la exploración espacial. Además, su capacidad para analizar datos podría dar lugar a soluciones que los humanos ni siquiera pueden imaginar, como una mayor calidad de vida o una esperanza de vida más longeva”, señalan en el artículo de IBM.
Por ello, “la superinteligencia artificial será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarse en el pasado”, según afirma OpenAI. Es decir, la superinteligencia artificial ayudaría a la humanidad a ser más productiva en prácticamente todo. Y, debido a su hipotética capacidad para razonar, los expertos ya están debatiendo sobre su desarrollo y las consecuencias que tendría integrar una IA de estas características en la vida cotidiana.
Los diferentes tipos de IA y sus capacidades
Las tecnologías de IA se clasifican según su capacidad para imitar las características humanas. En la actualidad el mundo se encuentra en la primera fase de las tres planteadas para el desarrollo de la IA, pero ya se están sentando las bases de las siguientes etapas, como la protagonizada por la superinteligencia artificial, y sus consecuencias para la humanidad. Ahora bien, cabe señalar que aún hay debates abiertos sobre cada una de las definiciones.
- Inteligencia artificial estrecha (ANI, por 'Artificial Narrow Intelligence'): está programada para desempeñar tareas específicas y actualmente es el único tipo de IA que existe. Se entrena para llevar a cabo una tarea particular, a menudo a una velocidad superior a la humana, pero no puede funcionar más allá de su función designada. También es llamada 'IA débil', e incluye desde asistentes virtuales como Siri o Alexa, hasta modelos predictivos de lenguaje generativo, como ChatGPT de OpenAI.
- Inteligencia artificial general (AGI, por 'Artificial General Intelligence'): en la actualidad es un concepto teórico, referente a un estado que todavía no se ha alcanzado, y hace referencia a una IA capaz de aprender y adquirir nuevas habilidades más allá de la función para la que fue programada. También es llamada 'IA fuerte', y con ella ya no sería necesaria la intervención humana en su entrenamiento, ya que podría desempeñar prácticamente cualquier tarea de manera autónoma.
- Superinteligencia artificial (ASI, por 'Artificial Superintelligence'): aunque primero habría que desarrollar con éxito la anterior fase, la referida a una inteligencia artificial general, este sería el siguiente paso. En él la IA superaría la capacidad cognitiva humana. Por ahora es un concepto teórico, pero de llegar a materializarse, sería capaz de pensar, razonar y realizar juicios cognitivos más allá de las capacidades de las personas. Además, podría incluso desarrollar emociones, necesidades y tener deseos propios.
La controversia de la superinteligencia artificial
Aunque la superinteligencia artificial es por ahora un concepto teórico, más propio de la ciencia ficción, diversas empresas tecnológicas, investigadores y expertos ya han advertido sobre su potencial futuro. La respuesta oscila entre la fascinación por los avances y el temor a que los algoritmos puedan llegar a suponer algún peligro para los seres humanos.
Poco después del lanzamiento de ChatGPT, Elon Musk, Steve Wozniak (cofundador de Apple) y Jaan Tallinn (cofundador de Skype), publicaron una carta abierta junto a más de 1.000 investigadores en la que pedían pausar la investigación de las IA avanzadas por ser "un profundo riesgo para la humanidad". En la misma línea se encuentra Eliezer Yudkowsky, responsable del Machine Intelligence Research Institute y considerado uno de los mayores expertos en IA, que en marzo de 2023 publicó un artículo en la revista 'Time' en el que llamaba a detener por completo el desarrollo de estos avances: "No podemos calcular por adelantado qué ocurrirá y cuándo, y actualmente parece posible imaginar que un laboratorio de investigación pueda cruzar líneas críticas sin enterarse".
En cambio, otros expertos como el inversor Marc Andreessen, cofundador de navegadores web como Mosaic y Netscape, no contemplan que la IA suponga un peligro para la humanidad. "La IA no quiere nada, no tiene metas, no quiere matarte, porque no está viva. Y la IA es una máquina: no tiene más posibilidades de cobrar vida de las que tiene tu tostador de pan", escribió en su blog personal. Andrew Ng, precursor de Google Brain y director del Stanford AI Lab (SAIL), tampoco considera que la IA vaya a suponer un peligro: "Creo que el impacto de la IA está contribuyendo enormemente a la sociedad, y no veo cómo puede llevar a la extinción humana. Desde que trabajo en IA, siento una gran responsabilidad ética y mantengo una mente abierta para comprender sus riesgos".
Otro gran referente en vaticinar el futuro de la IA es Illya Sutskever, cofundador de OpenAI y exdirector científico, que ha abandonado la empresa para centrarse en un proyecto personal. "En algún momento, tendremos una inteligencia artificial general (IAG) real. Quizá OpenAI la construya. Quizá alguna otra empresa lo haga", dijo Sutskever en una entrevista publicada en 'MIT Technology Review'.
De hecho, OpenAI ha establecido un Comité de Seguridad y Protección encargado de velar y hacer recomendaciones sobre las decisiones más importantes de la compañía. Aunque en la actualidad OpenAI ocupe un lugar destacado en el panorama de IA, el potencial desarrollo de una inteligencia artificial más avanzada no solo es relevante para esta empresa. Otros gigantes tecnológicos como Amazon, Google, Meta y Microsoft también cuentan con departamentos de investigación dedicados a explorar la posibilidad de crear una IA de tipo AGI, es decir, una inteligencia artificial general.
Mientras se desarrolla la inteligencia artificial general, otros expertos ya piensan en qué sucederá cuando se alcance el hito de la superinteligencia artificial. Pero ¿cuándo llegará? Todavía no hay una fecha clara. OpenAI señala que podría llegar "esta década". Mientras, Bill Gates es menos optimista y en su blog apunta que este logro "podría estar a una década o a un siglo de distancia". No obstante, el fundador de Microsoft subraya tres preguntas que, según él, se volverán más urgentes con el tiempo:"¿Cuáles serán los objetivos de estas IA? ¿Qué ocurrirá si sus intereses chocan con los de la humanidad? ¿Deberíamos impedir el desarrollo de una IA fuerte?".
Mientras tanto, otros expertos, como Yann LeCun, científico jefe de IA de Meta, creen que todavía quedan muchos pasos por dar antes de hablar de máquinas con capacidad para superar a los humanos. "El surgimiento de la superinteligencia no será un acontecimiento. Hoy en día no tenemos nada parecido a un modelo para sistemas superinteligentes. En algún momento, desarrollaremos una arquitectura que pueda llevarnos allí [...] La diseñaremos de tal manera que su único propósito sea cumplir objetivos especificados por los humanos (a esto lo llamo IA impulsado por objetivos)", afirmaba en la red social X, donde negaba que pueda llegar a desarrollarse un sistema superpoderoso propio de la ciencia ficción.
Solo el tiempo dirá qué experto atinó más en su pronóstico.