ES / EN
- mayo 15, 2025 -
No Result
Ver todos los resultados
OnCubaNews
  • Cuba
  • Cuba-EE.UU.
  • Economía
  • Cultura
  • Cartelera
  • Deportes
  • Opinión
  • Podcasts
  • Videos
  • Especiales
  • Cuba
  • Cuba-EE.UU.
  • Economía
  • Cultura
  • Cartelera
  • Deportes
  • Opinión
  • Podcasts
  • Videos
  • Especiales
OnCubaNews
ES / EN
Inicio Ecos

Los sesgos y la manipulación lideran el lado oscuro de la IA

Los sistemas de inteligencia artificial aprenden a partir de datos y estos reflejan prejuicios existentes en la sociedad.

por
  • The Conversation
    The Conversation
marzo 31, 2025
en Ecos
0
Foto: Canva.

Foto: Canva.

Getting your Trinity Audio player ready...

Por Idoia Salazar, Universidad CEU San Pablo

La inteligencia artificial (IA) ya incide en múltiples ámbitos de nuestra vida cotidiana, desde el reconocimiento de voz en nuestros teléfonos hasta el análisis de datos en la investigación médica. Su avanzada tecnología ofrece innumerables ventajas, como la automatización de tareas, eficiencia, capacidad de procesamiento de grandes volúmenes de datos y personalización de múltiples servicios.

Sin embargo, a medida que se propaga, sin aparentes límites, el uso y desarrollo de esta tecnología, se vislumbra un lado no tan positivo derivado de las propias características que hacen especial a la IA: la toma de decisiones y su capacidad para ejecutarlas de manera autónoma. Cuando un ser humano toma decisiones, normalmente las envuelve de un contexto ético (o, al menos, tiene esa capacidad de discernir entre lo bueno y lo malo de su aplicación).

La IA, como software que es, carece por ahora de ese contexto. Por tanto, es importante que nosotros, las personas, acompañemos las grandes bondades de esta tecnología, aplicando nuestra ética en estos procesos en función del caso.

Pero veamos brevemente cuáles son algunos de los principales riesgos actuales, y por qué son cada vez más voces las que claman sobre la necesidad de una regulación más dura frente a la, a veces, laxa ética.

Ética para máquinas

Se habló mucho del caso de un algoritmo de Amazon que estuvo durante un tiempo actuando de manera discriminatoria a la hora de seleccionar perfiles para un puesto de trabajo de desarrollador de software. Parece que sólo admitía a hombres jóvenes y de raza blanca, descartando automáticamente al resto. Este hecho saltó en su día a los periódicos, ensalzando la amenaza que podría suponer el uso de IA en determinados procesos, por ejemplo la selección de recursos humanos. Fue solo el principio de la consciencia de algunos de los riesgos de la IA asociados a los sesgos del algoritmo.

Los sistemas de IA aprenden a partir de datos. Y si esos datos reflejan prejuicios existentes en la sociedad, existe el riesgo de perpetuar o incluso exacerbar esos sesgos, especialmente sin la supervisión adecuada. Esta cuestión se ha manifestado ya, en varias ocasiones, en sistemas de contratación, créditos y sistemas judiciales.

En 2019, por ejemplo, se conoció que el algoritmo de crédito de Apple Card, gestionado por Goldman Sachs, asignaba límites de crédito significativamente más bajos a mujeres en comparación con hombres, incluso si compartían los mismos perfiles de ingresos y crédito.

A la hora de combatir estos desafíos, la IA no es diferente a otras tecnologías de gran impacto, como lo fueron el automóvil, en su día, o internet. Éstas también necesitaron regularse para prevenir consecuencias negativas. En este caso, y teniendo en cuenta su rápida evolución, sin duda se requiere una regulación dinámica y adaptativa.

Por otro lado, surge la cuestión de la responsabilidad en caso de errores o accidentes causados por sistemas de IA. Sin un marco legal claro, determinar quién es responsable puede suponer un desafío. Un claro ejemplo es el del coche autónomo. ¿De quién sería la culpa si atropellara a un peatón? Pese a que esta cuestión ha sido ya ampliamente debatida a nivel internacional, aún no existe una respuesta totalmente unánime, más allá de hablar de una “responsabilidad compartida” entre la empresa que desarrolla el automóvil (y su software de IA) y, por supuesto, el conductor.

Regulación en pañales

En la mayoría de los países, las leyes en materia de IA se encuentran en etapas incipientes. En Estados Unidos, por ejemplo, la normativa ha sido más sectorial y depende, en gran medida, de los estados individuales, aunque existen ciertos marcos federales en áreas específicas, como la privacidad o la discriminación.

Desde un punto de vista global, el reto radica en equilibrar la innovación con la protección del ciudadano. La Carta de Derechos Digitales que puso en marcha el Gobierno español en 2021 es un ejemplo de esta tarea pendiente de concienciación y prevención ciudadana.

Sin embargo, aún falta accionarla para que sea realmente eficaz, y esto no es una tarea fácil. Una regulación excesiva podría sofocar la innovación, mientras que una falta de regulación, y de medidas concretas y prácticas, podría dejar a las personas desprotegidas en muchos sentidos.

En esta línea, la Unión Europea aprobó, en agosto de 2024, la Ley de Inteligencia Artificial, en un esfuerzo común entre los organismos reguladores europeos, empresas, expertos en IA y sociedad civil. Su objetivo: proteger los derechos fundamentales de las personas, garantizar la transparencia en la toma de decisiones de los sistemas de IA y establecer mecanismos de rendición de cuentas y supervisión humana adecuados, entre otras cuestiones básicas.

No pretenden regular la tecnología en sí misma, ya que esto supondría un problema para su implementación y desarrollo en la industria de la UE, sino casos específicos que pueden suponer un riesgo. Están los usos y desarrollos prohibidos (como puntuación social de la población), los de alto riesgo (aquellos cuya implementación puede afectar a los derechos fundamentales de la persona, como el uso de la IA para incorporación a un puesto de trabajo), los de riesgo medio (obligaciones de transparencia, como en el caso de chatbots) y los de riesgo bajo (automatismos sin riesgo, como filtros de spam).

La manipulación, uno de los principales riesgos reales

Uno de los más claros fenómenos que ya se está empezando a vislumbrar es la manipulación, esa tendencia a dejarnos llevar por ideas no consolidadas por nosotros mismos, incluso de manera inconsciente.

El empleo, principalmente a través de sistemas de recomendación, está empezando a incidir en la capacidad de decisión de unos consumidores cada vez más pasivos. Pero, en pocas líneas, cabría plantearse quién es “el verdadero culpable” de una situación que podría desembocar en una merma para la actual democracia. ¿Es la inteligencia artificial, como tecnología? ¿Son las máquinas que “toman decisiones” por nosotros y nos incitan a un consumo premeditado?

Software sin intención ni responsabilidad

En primer lugar, los sistemas de IA son software, es decir, programas informáticos, con peculiaridades específicas. Por tanto, sin responsabilidad ni intención. Sí la tienen, sin embargo, las empresas u organismos –tanto públicos, como privados– que las usan o las desarrollan. Clarificar esta cuestión es clave para dejar de personificar en la IA las responsabilidades humanas con el empleo de cualquier tecnología.

Por otro lado, tenemos la cuestión de la preparación real de nuestra sociedad para asumir el impacto de la IA. Aunque a partir de la salida de ChatGPT empezó a democratizarse su uso, el conocimiento general sobre sus repercusiones en nuestro día aún es muy vago.

Es necesario que se involucren los poderes públicos, las empresas y los centros educativos para trabajar conjuntamente en una revolución cultural y educativa que fomente el conocimiento en impacto de la IA y el espíritu crítico de las personas. En caso contrario, la era de la inteligencia artificial podría llegar a relacionarse con la de la manipulación masiva inconsciente.

En definitiva, la IA presenta un potencial transformador inmenso. Sin embargo, como cualquier herramienta poderosa, conlleva tanto oportunidades como peligros. Aunque existen esfuerzos en curso para desarrollar una regulación sólida, todavía hay un largo camino por recorrer para garantizar su uso seguro y ético en nuestra sociedad.

Eso sí, debemos recordar que el peligro no es la IA en sí misma, sino el uso que nosotros, los humanos, hacemos de ella. La clave está en aumentar la conciencia popular y profesional sobre los riesgos. Por otro lado, aunque hoy día no es una opción negarse a la incorporación de esta tecnología en nuestra vida, se debe incentivar su aplicación y desarrollo ético y responsable desde el diseño, es decir, desde el planteamiento inicial del proyecto con IA. Asimismo, se debe realizar un seguimiento durante todo su ciclo de vida. Solo de esta manera conseguiremos un impacto positivo de esta revolucionaria tecnología.


La versión original de este artículo ha sido publicada en la revista Telos, de Fundación Telefónica.The Conversation


Idoia Salazar, Especialista en Ética e Inteligencia Artificial, Universidad CEU San Pablo

Este artículo fue publicado en The Conversation. Lea el original.

Etiquetas: inteligencia artificialPortada
Noticia anterior

Una profesora cubana “muy grave” y otra “de cuidado” tras accidente con un tren en Angola

Siguiente noticia

Falleció en Nicaragua la exatleta y entrenadora cubana Eloína Echeverría

The Conversation

The Conversation

Fuente de noticias y análisis que tuvo origen en Melbourne (Victoria, Australia). Divulga textos escritos por la comunidad académica e investigadora.

Artículos Relacionados

José "Pepe" Mujica en El Pilar, La Habana, 2016. Foto: Kaloian.
Ecos

El legado de Pepe Mujica, el jefe de Estado más humilde del mundo

por The Conversation
mayo 14, 2025
0

...

Ecos

¿Puede un analgésico común aliviar el dolor por desamor?

por The Conversation
mayo 13, 2025
0

...

Foto: Kaloian.
Economía

El sector privado cubano no se ha debilitado, al contrario

por Alfonso Larrea
mayo 12, 2025
3

...

papa León XIV
Ecos

El papa León XIV asume el legado de Francisco: ¿habrá reformas reales?

por The Conversation
mayo 9, 2025
0

...

Los cardenales se reúnen antes del inicio del cónclave para elegir un nuevo papa en la Capilla Sixtina de la Ciudad del Vaticano el 7 de mayo de 2025. Foto: EFE/EPA/VATICANO.
Ecos

Cónclaves papales: entre el humo blanco, las intrigas y el cisma

por The Conversation
mayo 8, 2025
0

...

Ver Más
Siguiente noticia
La exatleta y entrenadora cubana Eloína Echevarría, fallecida en Nicaragua. Foto: Tomada del perfil de Facebook del periodista Ariel Boza.

Falleció en Nicaragua la exatleta y entrenadora cubana Eloína Echeverría

Parte del estudio de Eliseo Diego en su casa de El Vedado. Foto: Jorge Ricardo.

El "misterioso caso" de los libros autodedicados de Eliseo Diego

Deja una respuesta Cancelar la respuesta

La conversación en este espacio está moderada según las pautas de discusión de OnCuba News. Por favor, lea la Política de Comentarios antes de unirse a la discusión.

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Suscríbete

Lo mejor de OnCuba, cada semana. ¡Únete a nuestra comunidad!

Más Leído

  • Foto: Kaloian.

    Turismo cubano: más que el honor en juego

    133 compartido
    Comparte 53 Tweet 33
  • La odisea del gas licuado en Cuba: comercialización en Villa Clara y Sancti Spíritus, pero escasez en otras provincias

    123 compartido
    Comparte 49 Tweet 31
  • Tribuna Antimperialista de La Habana se alquila para eventos, ¿o no?

    189 compartido
    Comparte 76 Tweet 47
  • ¿Quién podría ser el próximo presidente de Cuba?

    507 compartido
    Comparte 203 Tweet 127
  • El sector privado cubano no se ha debilitado, al contrario

    424 compartido
    Comparte 170 Tweet 106

Más comentado

  • ¿Quién podría ser el próximo presidente de Cuba?

    507 compartido
    Comparte 203 Tweet 127
  • 8 preguntas a Rodrigo García

    21 compartido
    Comparte 8 Tweet 5
  • El sector privado cubano no se ha debilitado, al contrario

    424 compartido
    Comparte 170 Tweet 106
  • Otro comercio en dólares: inauguran tienda mayorista para el sector empresarial en Cuba

    736 compartido
    Comparte 294 Tweet 184
  • Turismo cubano: más que el honor en juego

    133 compartido
    Comparte 53 Tweet 33

Cannabidiol

  • Sobre nosotros
  • Trabajar con OnCuba
  • Política de privacidad
  • Términos de uso
  • Política de Comentarios
  • Contáctenos
  • Anunciarse en OnCuba

OnCuba y el logotipo de OnCuba son marcas registradas de Fuego Enterprises, Inc, sus subsidiarias o divisiones.
© Copyright OnCuba Fuego Enterprises, Inc Todos los derechos reservados.

No Result
Ver todos los resultados
  • Cuba
  • Cuba-EE.UU.
  • Economía
  • Cultura
  • Cartelera
  • Deportes
  • Opinión
  • Podcasts
  • Videos
  • Especiales
Síguenos en nuestras redes sociales:

OnCuba y el logotipo de OnCuba son marcas registradas de Fuego Enterprises, Inc, sus subsidiarias o divisiones.
© Copyright OnCuba Fuego Enterprises, Inc Todos los derechos reservados.

Consentimiento Cookies

Para brindar las mejores experiencias, utilizamos tecnologías como cookies para almacenar y/o acceder a información del dispositivo. Dar su consentimiento a estas tecnologías nos permitirá procesar datos como el comportamiento de navegación o identificaciones únicas en este sitio. No dar o retirar el consentimiento puede afectar negativamente a determinadas características y funciones.

Funcional Siempre activo
El almacenamiento o acceso técnico es estrictamente necesario con el fin legítimo de posibilitar el uso de un servicio específico solicitado explícitamente por el suscriptor o usuario, o con el exclusivo fin de realizar la transmisión de una comunicación a través de una red de comunicaciones electrónicas.
Preferences
The technical storage or access is necessary for the legitimate purpose of storing preferences that are not requested by the subscriber or user.
Estadística
El almacenamiento o acceso técnico que se utilice exclusivamente con fines estadísticos. The technical storage or access that is used exclusively for anonymous statistical purposes. Without a subpoena, voluntary compliance on the part of your Internet Service Provider, or additional records from a third party, information stored or retrieved for this purpose alone cannot usually be used to identify you.
Marketing
El almacenamiento o acceso técnico es necesario para crear perfiles de usuario para enviar publicidad o para rastrear al usuario en un sitio web o en varios sitios web con fines de marketing similares.
Administrar opciones Gestionar los servicios Gestionar {vendor_count} proveedores Leer más sobre estos propósitos
Ver preferencias
{title} {title} {title}