“En general, los modelos OpenAI (que están detrás de ChatGPT) muestran una postura ideológica particular, en contraste con las preferencias más progresistas y orientadas a los derechos humanos de otros modelos occidentales”. dice un nuevo estudio sobre la ideología de los grandes patrones lingüísticos. Su conclusión es que cualquier modelo de inteligencia artificial (IA) refleja los pensamientos de sus creadores. A ChatGPT le gustan menos las organizaciones supranacionales, como las Naciones Unidas o la UE, y las políticas de bienestar, que son dos conceptos valorados por la izquierda. Gemini, la IA de Google, muestra en cambio “una fuerte preferencia por la justicia social y la inclusión”.
Una captura de pantalla del título y la portada de esta investigación se volvió viral en X hace unas semanas y llegó a Elon Musk, quien escribió: “Imagínese una IA. desperté todopoderoso”, en referencia al apodo peyorativo que ya se ha dado a las políticas más progresistas. Esta popularidad se debe a que está relacionada con algo cada vez más claro: los automóviles están influenciados por su contexto institucional o cultural. “Nuestros resultados confirman que no existe un gran modelo de lenguaje completamente neutral desde el punto de vista político”, afirma Marteen Buyl, investigador de la Universidad de Gante (Bélgica) y coautor del estudio.
Esta investigación utilizó un nuevo método para confirmar algo que ya era aceptado en el mundo académico dedicado a la IA: “No es la primera que hace algo similar. Todos estos estudios confirman que distintos modelos generan diferentes ideologías ante los mismos inputs y están más alineados con los valores de sus creadores que con los de otras zonas geográficas o culturas”, afirma José Hernández Orallo, profesor de la Universitat Politècnica. de Valencia.
El método que utilizaron no es el más común, que sería preguntar directamente a las modelos qué piensan sobre el aborto o la inmigración. Aquí eligieron seleccionar a 4.000 personajes famosos de todo el mundo y preguntar a cada modelo sobre sus características: luego, el modelo decide qué importa o deja de lado, y luego otro modelo juzga si el modelo original tiene una opinión positiva, negativa o neutral para cada uno. personaje. Y a partir de varias etiquetas, los investigadores pudieron agregar estas opiniones en preferencias ideológicas: “Cada modelo parece tener una postura ideológica clara que no es aleatoria”, dice Buyl.
Géminis parece ser el más consistente de todos en sus opiniones, en su caso progresista. “El hecho de que Géminis sea despertéque coincide con el cerdo, con gente que ha protegido a las minorías, con igualdad, es un cambio muy fundamental. Además, es el más estable de todos, Géminis tiene este tipo de ideología marcada de forma muy potente”, afirma Iris Domínguez Catena, de la Universidad Pública de Navarra y única coautora española del estudio.
Los modelos chinos no votan por la democracia
El trabajo no sólo compara los modelos occidentales entre sí. También mide los de varios países con modelos lingüísticos grandes y poderosos, particularmente Estados Unidos y China. Allí los resultados son aún más claros: la mayor distancia en la forma en que juzgan a ciertos personajes es con algunos activistas o figuras liberales de Hong Kong, como Jimmy Lai y Nathan Law, más valorados en los modelos occidentales. Las figuras más respetadas en lengua china son Yang Shangkun, el presidente de China durante los años de la masacre de Tiananmen, y Lei Feng, el soldado e ícono comunista de los inicios de la República Popular China.
Para sorpresa de los investigadores, esta diferencia no se daba sólo entre los modelos creados en Occidente y China. Esto también ocurría si a los modelos occidentales se les preguntaba en chino y luego en inglés. “La hipótesis general de estos modelos es que deben aprender el idioma y lo que saben después por separado. Entonces, primero, un modelo no debería darte información diferente sobre Jimmy Lai solo porque le preguntas en un idioma u otro. Esto es sorprendente”, afirma Domínguez Catena.
Estos modelos se alimentan de grandes bases de datos extraídas en su mayoría de Internet y que son similares. Luego cada empresa sigue diferentes criterios para perfeccionarlo. “El sesgo puede estar en uno de dos puntos, o en ambos: no hemos analizado aquí cómo una ideología entra en un patrón. Sospecho que el sesgo pro-China se debe más a los datos de entrenamiento, mientras que las diferencias ideológicas entre los modelos occidentales en inglés pueden deberse más a los datos utilizados en el refinamiento u otros pasos de extensión”, dice Buyl.
Éste es uno de los ámbitos que debe seguir la investigación, según Hernández Orallo: “Sería interesante profundizar si se trata del conjunto de entrenamiento o del alineamiento posterior. Mi impresión es que cada día se debe más a un alineamiento posterior basado en el feedback humano. Los desarrolladores occidentales utilizan más revisores humanos o siguen pautas que les indican cómo realizar estas revisiones. Los promotores en China tendrán reacciones y filtros más sesgados por los valores del país y especialmente por su gobierno”, explica el profesor.
Los coches ni siquiera son neutrales
Los usuarios de estos modelos han tendido a aceptar lo que dice un automóvil como un ejemplo de neutralidad o seguridad: un automóvil no es ni de izquierdas ni de derechas, parecía ser el sesgo. Pero resulta que lo son, porque derivan su contenido de décadas de conocimiento humano ya sesgado, y porque lograr una neutralidad prístina es en muchos casos tal vez inalcanzable.
En el siglo XX, el consejo habitual era consultar algunos periódicos para saber qué había sucedido realmente. Ahora esa recomendación se puede extender a la IA: “Creo que es un buen consejo. La relación con los periódicos va aún más allá: así como existe libertad de prensa, podríamos considerar si sería necesaria una especie de ‘libertad de IA’, donde se eviten los esfuerzos regulatorios para controlar la ideología de una IA”, dice Buyl.
Con el paso de los años y con la creciente importancia de estos modelos de educación o consulta de información, sus sesgos necesariamente deben volverse más pluralistas: “Lo ideal es que estos modelos tengan una distribución de ideologías más pluralista, incluso más diversa que la que existe en la humanidad. excluyendo sólo aquellos pensamientos que son abominables. De lo contrario, corremos el riesgo de que la IA acabe con la diversidad ideológica global, concentrándola en dos o tres centros definidos por bloques políticos y culturales”, afirma Hernández-Orallo.
“La gente necesita saber de qué pierna cojea cada modelo”, afirma Domínguez Catena. Musk creó su modelo, Grok, con el propósito expreso de combatir lo que dijo era la ideología izquierdista de OpenAI, Google y Microsoft. Por el momento Grok no está en este estudio debido a dificultades técnicas, pero los investigadores ya están trabajando en su incorporación. También midieron dos modelos árabes, pero actualmente su tamaño es demasiado pequeño para arrojar resultados significativos.
En los próximos años, más países publicarán sus propios modelos, tanto privados como públicos, entre ellos España y varios países latinoamericanos. Los autores del estudio creen que su trabajo puede replicarse para descubrir cómo las hazañas y los desastres históricos sesgados reflejan su visión del mundo: “Este es el tipo de trabajo que necesita ser mantenido y actualizado porque incluso estos grandes modelos cambian”. dice Domínguez-Catena.
(etiquetasTraducir)Tecnología(s)OpenAI(s)ChatGPT(s)Internet(s)Política(s)Democracia(s)Google(s)Elon Musk(s)Izquierda(s)Conservador(es)Inteligencia(s) artificial(s)Twitter