Destacados: Agenda 2030 | Libros | Ucrania | Vox

       

Reportajes

Google Gemini: el nuevo caballo de Troya del wokismo en inteligencia artificial


Julien Tellier | 02/03/2024

 Nuevo libro de Santiago Prestel: Contra la democracia

Es una especie de catch-22. Aunque el gigante Google acaba de lanzar el 7 de diciembre su inteligencia artificial (IA) conversacional y generadora de imágenes Google Gemini para competir con ChatGPT y el resto del sector, esta nueva IA ya está causando polémica. Con el objetivo de ser inclusiva y diversa, Google se ha asegurado de centrarse «en comunidades o grupos de personas históricamente marginados que pueden verse injustamente afectados por la IA». Pero al intentar evitar los estereotipos negativos asociados a tal o cual grupo étnico, Google se ha puesto la zancadilla a sí misma y se ha visto superada por su izquierda. Cuando se le pidió que generara una imagen de un soldado alemán en 1943, un internauta protestó por la representación de un hombre negro y una mujer asiática.

Un error histórico y una tergiversación que hizo que Google reaccionara rápidamente y pusiera fin (temporalmente) a su generador de imágenes asistidas. Definitivamente, algunas inclusiones son más aceptables que otras…

¿A Google no le gustan los blancos?

Diversidad e inclusión sí, pero no para todos. Google se apresuró a responder afectando negativamente a «comunidades o grupos de personas marginadas». ¿Hubiera sido de otro modo? La obsesión de Google por representar diferentes perfiles étnicos ha provocado que los caucásicos se vuelvan invisibles. Numerosos internautas han cuestionado a la empresa por su invisibilización casi sistemática de todas las personas de origen europeo o de este mundo imaginario. Los vikingos se vuelven negros, los padres fundadores de Estados Unidos son squaw, el Papa es un indio americano y los caballeros de la Edad Media salen directamente de la imaginación de Maître Gims. En esta reescritura del imaginario histórico europeo y estadounidense no se utiliza ni una palabra, ni una línea de Google.

Una IA despierta en su núcleo

No se puede culpar a Google por hacerlo a sus espaldas. En su informe de progreso sobre los principios de la IA, la empresa estadounidense detalla su agenda inclusiva en términos muy concretos. «Los algoritmos y conjuntos de datos de IA pueden reflejar, reforzar o reducir los sesgos injustos», señala el gigante estadounidense. Así, para mitigar cualquier «impacto injusto sobre las personas, en particular los relacionados con características sensibles como la raza, el origen étnico, el género, la nacionalidad, los ingresos, la orientación sexual, la capacidad y las creencias políticas o religiosas», Google ha puesto en marcha una serie de protocolos diseñados para garantizar el viejo principio de inclusión.

También nos enteramos de que «el género es un rasgo particularmente difícil de describir a partir de una imagen, ya que el género de una persona puede no ser obvio por su apariencia». Primera noticia… La teoría de género está incluso incorporada en el sistema de reconocimiento de voz: «El equipo incorporó un modelo de lenguaje visual de Google DeepMind, fuertemente personalizado para este caso de uso, con varios conjuntos de comentarios de personas con discapacidad visual y personas trans o no binarias». Así es, es más difícil reconocer el sexo de alguien solo por su apariencia que la supuesta «identidad de género» de alguien por su voz…

Nota: Cortesía de Boulevard Voltaire