Lo que ocurrirá cuando la inteligencia artificial supere a la humana es ahora mismo la mayor preocupación de los científicos informáticos, según un artículo de BBC Mundo que explica las tres etapas de este fenómeno de consecuencias presumiblemente fatales.
La Artificial Superintelligence (AI), apunta el medio, será el último de los tres niveles, descrito como un “intelecto mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos”.
Mientras que los humanos destinamos años para ser abogados, médicos o ingenieros, mediante la AI podría lograrse “de inmediato”, señala Ignacio Gutiérrez, investigador de políticas públicas en el Future of Life Institute.
Según los expertos, transitamos actualmente por la “Inteligencia artificial estrecha” (ANI), la primera de los tres escenarios posibles, llamada así por responder a una sola tarea y “realizar un trabajo repetitivo dentro de un rango predefinido por sus creadores”.
“Todos los programas y herramientas que utilizan IA hoy, incluso los más avanzados y complejos, son formas de ANI”, asegura el artículo, que pone de ejemplos las aplicaciones de teléfonos celulares como mapas con GPS, los asistentes virtuales Siri y Alexa y el buscador de Google.
Sin embargo, dada la creencia de que estamos al borde de alcanzar el segundo nivel, la Inteligencia artificial general (AGI), más de mil expertos en tecnología pidieron a las empresas de IA abandonar el entrenamiento durante al menos seis meses en aquellos programas más poderosos que GPT-4, la versión más reciente de ChatGPT.
El fundador de este chat, Sam Altman, dijo ante el Congreso de Estados Unidos que era “crucial” que su industria fuera regulada por el Gobierno a medida que la IA se vuelve “cada vez más poderosa”.
Creador de ChatGPT pide al gobierno de EEUU regular uso de la inteligencia artificial
Alarmados y esperanzados
La Superinteligencia Artificial tiene dos grupos opuestos: los que la consideran beneficiosa para la humanidad y quienes ven en ella una amenaza, apunta BBC Mundo.
De un lado, aparece el futurista estadounidense Ray Kurzweil, investigador de IA en Google y cofundador de la Universidad de la Singularidad en Sillicon Valley, anunciando la inmortalidad para humanos en 2030 gracias a nanobots. De otro, el ya fallecido físico británico Stephen Hawking, quien avizoraba “el fin de la raza humana”.
Ignacio Gutiérrez reflexiona sobre “un futuro en que un ente tenga tanta información sobre cada persona en el planeta y sus hábitos (gracias a nuestras búsquedas en internet) que nos podría controlar de una manera que no nos daríamos cuenta”.
No obstante, asegura, el peor escenario “no es que haya guerras de humanos contra robots, sino “que no nos demos cuenta de que estamos siendo manipulados porque estamos compartiendo el planeta con un ente mucho más inteligente que nosotros mismos”.