Por Francisco Herrera Triguero, Universidad de Granada
La inteligencia artificial (IA) está marcando un antes y un después en la historia de la tecnología, y 2025 traerá más sorpresas. No es fácil hacer una predicción de lo que nos espera, pero sí destacar tendencias y retos que definirán el futuro inmediato de la IA para el próximo año. Entre ellos, el desafío de los llamados “médico centauro” o “profesor centauro”, clave para los que estamos inmersos en el desarrollo de la IA.
La explosión de la ciencia basada en IA
La IA se ha convertido en una herramienta fundamental para abordar grandes desafíos científicos. Áreas como la salud, la astronomía y la exploración espacial, la neurociencia o el cambio climático, entre otras, se beneficiarán aún más de lo que ya lo están haciendo.
AlphaFold (que mereció el Nobel en 2024) ha determinado la estructura tridimensional de 200 millones de proteínas, prácticamente todas las que se conocen. Su desarrollo representa un avance significativo en biología molecular y medicina. Esto facilita el diseño de nuevos fármacos y tratamientos, y 2025 marcará la eclosión de su uso (de libre acceso, por cierto).
Por su parte, ClimateNet utiliza redes neuronales artificiales para realizar análisis espaciales y temporales precisos de grandes volúmenes de datos climáticos, esencial para entender y mitigar el calentamiento global. El uso de ClimateNet será fundamental en 2025 para predecir eventos climáticos extremos con mayor exactitud.
Diagnósticos médicos y juicios: el papel de la IA
La justicia y el diagnóstico médico se consideran escenarios de alto riesgo. En ellos es más urgente que en ningún otro ámbito establecer sistemas para que el humano tenga siempre la última decisión.
Los expertos en IA trabajamos para garantizar la confianza del usuario, que el sistema sea transparente, que proteja a las personas y que el humano esté en el centro de las decisiones.
Aquí entra en escena el reto del “doctor centauro”. Los centauros son modelos híbridos humano-algoritmo que combinan la analítica formal propia de las máquinas y la intuición humana. Un “centauro doctor + un sistema de IA” mejora las decisiones que toman los humanos por su cuenta y los sistemas de IA por la suya. Un médico será siempre quien dé al botón de aceptar, y un juez quien determine si la sentencia es justa.
La IA que tomará decisiones por nosotros
Los agentes de IA autónomos basados en modelos de lenguaje son el objetivo para 2025 de las grandes empresas tecnológicas como OpenAI (ChatGPT), Meta (LLaMA), Google (Gemini) o Anthropic (Claude).
Hasta ahora, estos sistemas de IA hacen recomendaciones, en 2025 se desea que tomen decisiones por nosotros.
Los agentes de IA realizarán actuaciones personalizadas y precisas en tareas que no sean de alto riesgo, siempre ajustadas a las necesidades y preferencias del usuario. Por ejemplo: comprarle un billete de autobús, actualizar el calendario, recomendarle una compra concreta y realizarla. También podrán contestar nuestro correo electrónico, tarea que nos lleva mucho tiempo al día.
En esta línea, OpenAI ha lanzado AgentGPT y Google Gemini 2.0, plataformas para el desarrollo de agentes de IA autónomos. Por su parte, Anthropic propone dos versiones actualizadas de su modelo de lenguaje Claude: Haiku y Sonnet.
El uso de nuestro ordenador por la IA
Sonnet puede usar un ordenador como lo haría una persona. Esto significa que puede mover el cursor, hacer clic en botones, escribir texto y navegar por pantallas. También habilita una funcionalidad para automatizar nuestro escritorio. Permite a los usuarios conceder a Claude acceso y control sobre ciertos aspectos de sus ordenadores personales, como lo hacen las personas. Esta capacidad bautizada como “uso del ordenador” podría revolucionar la manera en que automatizamos y manejamos nuestras tareas cotidianas.
En el comercio electrónico, los agentes de IA autónomos podrán hacer una compra para el usuario. Darán asesoramiento en la toma de decisiones empresariales, gestionarán inventario de forma automática, trabajarán con proveedores de todo tipo, incluidos proveedores de logística, para optimizar el proceso de reabastecimiento, actualizarán los estados de envío hasta generar facturas, etc.
En el sector de la educación, podrán personalizar planes de estudio para estudiantes. Identificarán áreas de mejora y sugerirán recursos de aprendizaje adecuados. Avanzaremos hacia el concepto de “profesor centauro”, ayudado por agentes de IA en educación.
El botón de aprobar
La noción de agentes autónomos suscita interrogantes profundos sobre el concepto de “autonomía humana y control humano”. ¿Qué implica en realidad la “autonomía”?
Estos agentes de IA introducirán la necesidad de una preaprobación. ¿Qué decisiones permitiremos que estas entidades tomen sin nuestra aprobación directa (sin el control humano)?
Nos enfrentamos a un dilema crucial: saber cuándo es mejor ser “automáticos” en el uso de agentes de IA autónomos y cuándo necesitamos tomar la decisión, es decir, recurrir “al control humano” o la “interacción humano e IA”.
El concepto de preaprobación va a adquirir una gran relevancia en el uso de los agentes de IA autónomos.
Los pequeños ChatGPT que entrarán en el móvil
2025 será el año de la expansión de modelos de lenguaje pequeños y abiertos (SLM, siglas de small language models). Estos son modelos de lenguaje que en un futuro podrán estar instalados en un dispositivo móvil, permitirán controlar nuestro teléfono mediante voz de forma mucho más personal e inteligente que con asistentes como Siri y responderán al correo electrónico por nosotros.
Los SLM son compactos y más eficientes, no requieren servidores masivos para su uso. Se trata de soluciones de código abierto que se pueden entrenar para escenarios de aplicación concretos. Pueden ser más respetuosos con la privacidad de los usuarios y resultan perfectos para su uso en ordenadores de coste limitado y teléfonos móviles.
Serán de interés para para su adopción empresarial. Ello será factible porque los SLM tendrán un coste menor, más transparencia y, potencialmente, más auditabilidad.
Los SLM harán posible la integración de aplicaciones para recomendaciones médicas, en la educación, para traducción automática, resumen de textos o corrección ortográfica y gramatical instantánea. Todo desde pequeños dispositivos sin necesidad de conexión a internet.
Entre sus importantes ventajas sociales, pueden facilitar el uso de modelos de lenguaje en educación en áreas desfavorecidas. Pueden mejorar el acceso a diagnósticos y recomendaciones con modelos SLM especializados en salud en zonas con recursos limitados. Su desarrollo es fundamental para apoyar a comunidades con menos recursos. Pueden acelerar la presencia del “profesor o doctor centauro” en cualquier área del planeta.
El avance en la regulación europea de IA
El 13 de junio de 2024 se aprobó la regulación europea de IA, que en dos años entrará en vigor. Durante 2025 se crearán normas y estándares de evaluación, incluyendo normas ISO e IEEE.
Previamente, en 2020, la Comisión Europea publicó la primera Lista de Evaluación para la IA Confiable (ALTAI). Esta relación incluye siete requisitos: agencia y supervisión humanas, robustez técnica y seguridad, gobernanza de datos y privacidad, transparencia, diversidad, no discriminación y equidad, bienestar social y ambiental y responsabilidad. Constituyen la base de las futuras normas europeas.
Contar con normas de evaluación es clave para auditar los sistemas de IA. Veamos un ejemplo: ¿qué sucede si un coche autónomo tiene un accidente? ¿Quién asume la responsabilidad? El marco normativo abordará cuestiones como éstas.
Un objetivo a mencionar
Dario Amodei, CEO de Anthropic, en su ensayo titulado Máquinas de Amor y Gracia (Machines of Loving Grace, octubre 2024), fija la visión de las grandes empresas tecnológicas: “Creo que es fundamental tener una visión de futuro realmente inspiradora, y no sólo un plan para apagar incendios”.
Existen visiones contrapuestas de otros pensadores más críticos. Por ejemplo, la representada por Yuval Noah Harari y debatida en su libro Nexus.
Por ello, necesitamos una regulación. Ésta aporta el equilibrio necesario para el desarrollo de una IA confiable y responsable y poder avanzar en los grandes retos para el bien de la humanidad destacados por Amodei. Y junto a ellos, tener los mecanismos de gobernanza necesarios como “plan para apagar incendios”.
Francisco Herrera Triguero, Catedrático de Ciencias de la Computación e Inteligencia Artificial, Universidad de Granada
Este artículo fue publicado originalmente en The Conversation. Lea el original.