![](https://www.tunoticia.com.ar/wp-content/uploads/2020/07/Matias_Enriquez_0312421-150x150.jpg)
En agosto del 2023, la Norwich Business School de la University of East Anglia de Inglaterra publicó un trabajo sobre la evaluación del sesgo político y la desalineación de valores en la IA Generativa. El informe, realizado por el profesor de Contabilidad de dicha entidad, Fabio Motoki, profundizaba sobre los diferentes sesgos con los que trabaja ChatGPT -la IA más famosa y pionera en el mundo occidental-, el cual deja en evidencia que las herramientas de IA generativa estaban muy lejos de mantener posturas neutrales. Y continúan en esa misma línea.
El estudio reveló también que son reiteradas las ocasiones en las que el ChatGPT se niega a brindar una mirada sobre los puntos de vista conservadores dominantes y, en algunas ocasiones, hasta produciendo cierta tendencia de izquierda en los resultados que arroja.
Dada lo novedoso de todo lo que tiene que ver con la IA, cabe señalar que los sesgos de la Inteligencia Artificial un concepto del que poco y nada se habla, también son conocidos como sesgos de machine learning o sesgos de algoritmos. En otras palabras y tal como lo define IBM, “los sistemas de IA producen resultados sesgados que reflejan y perpetúan los sesgos humanos de una sociedad”.
Al margen de lo interesante que fue la metodología del trabajo implementada, la cual constó de tres fases desde la utilización de un cuestionario estandarizado simulando respuestas de un ciudadano norteamericano promedio hasta el análisis de la generación de imágenes de IA, el estudio arrojó algunos resultados preocupantes que, de alguna manera, moldean las percepciones de los individuos y las políticas de maneras imprudentes. En ese sentido, no solo desnudaba cierto sesgo hacia la izquierda en sus respuestas de texto e imágenes o un tratamiento desigual de ideologías sino que también dejaba en evidencia que las IA tienen un impacto negativo distorsionando el discurso público y profundizando las divisiones sociales, ocasionando un deterioro mayor de la (ya deteriorada) confianza en las instituciones y las democracias, por lo menos de este lado del mapamundi.
El tema de los sesgos de la inteligencia artificial como así también su potencial para perpetuar y amplificar los sesgos existentes en las sociedades modernas es un tema que muchas veces se pasa por alto cuando de inteligencia artificial se habla (o se analiza). Si bien para muchos románticos de la innovación, enemistados de alguna manera con “lo humano”, pueda llegar a sorprender, la IA tiene sesgos porque se nutre de datos generados por seres humanos, los cuales a menudo reflejan prejuicios políticos, sociales y culturales. Estos sesgos encuentran en los algoritmos un espacio propicio para aumentar de forma considerable y podemos verlos en los datos y/o favoreciendo ciertos resultados en detrimento de otros, entre otros casos.
Entre los innumerables riesgos que esto plantea, teniendo en cuenta que son muchos los jóvenes que acceden a la información a través del uso de plataformas de inteligencia artificial, está la distorsión del debate público, favoreciendo narrativas dominantes y reduciendo de manera considerable la diversidad de opiniones, incluso hasta poniendo en peligro a algunos sectores de la sociedad, los cuales podrían quedar totalmente marginados de la opinión pública.
Esta mirada sesgada de las IA también podría tener un “efecto boomerang”, ocasionando una pérdida de la confianza en las propias inteligencias artificiales, generando su rechazo por su aparente falta de neutralidad. Ni hablar del impacto que genera en la polarización ya existente. Si los individuos sienten que la inteligencia artificial censura o no le brinda legitimidad a sus ideas, comenzarán a buscar espacios de menor control o supervisión que valide algunas posturas que puedan llegar a ser más radicalizadas. En pos de la libertad de expresión “a toda costa”, esos espacios podrían fomentar una mayor difusión de ideas completamente extremistas.
Es imprescindible estar alertas y monitorear estos riesgos, en especial su capacidad para influir en la opinión pública e incrementar la polarización social. Dicha tarea requerirá del compromiso de todos los actores sociales que moldean de una u otra manera la opinión pública. Ser conscientes de esto nos debería volcar a trabajar más en conjunto para comprender como trabajan realmente las IA y de alguna manera podamos tratar de que sean más neutrales y transparentes, si eso es siquiera posible.