Causó polémica la IA de Google por imágenes inexactas

Causó polémica la IA de Google por imágenes inexactas

Gemini, la herramienta de inteligencia artificial (IA) de Google, causó polémica tras generar imágenes diversas pero inexactas.

Google acaba de darse cuenta que el exceso de diversidad racial y de género también puede ser un problema.

Para su modelo de inteligencia artificial (IA) avanzado que recientemente lanzó.

La gigante de tecnología se apresuró así a emitir una disculpa pública.

Después de que Gemini, su herramienta de IA antes llamada Bard, generase imágenes diversas pero inexactas históricamente.

Las críticas se extendieron después de que varios usuarios notaran que Gemini estaba proporcionando imágenes que representaban una variedad de géneros y etnias.

Incluso cuando hacerlo era históricamente inexacto, lo cual causó polémica.

Google admitió que su herramienta de IA “no dio en el blanco” y literalmente así fue.

Por ejemplo, cuando se le solicitó a Gemini representar a figuras blancas de la historia, como los padres fundadores de Estados Unidos o grupos de soldados nazi, la herramienta arrojó imágenes de mujeres, nativos americanos, personas de color y de otras etnias, según numerosos reportes.

Gemini tiene un sesgo que borra parte de la historia.

El sesgo posiblemente fue el resultado de una corrección excesiva.

Para evitar los riesgos de prejuicios raciones en el sistema de IA de Google.

Como señala The Verge, especialmente en medio de la agresiva competencia tecnológica.

La discriminación y los sesgos raciales y de género fueron un problema de larga data para la tecnología de inteligencia artificial.

Los generadores de imágenes de IA se entrenan con grandes corpus de imágenes y textos.

Para producir la representación más cercana a un mensaje determinado.

Sin embargo, a menudo esto significa que son propensos a ampliar los estereotipos.

OpenAI, un importante rival en el área y creador de ChatGPT, ya recibió acusaciones de perpetuar estereotipos dañinos.

En particular, recibió amplias críticas después de que su generador de imágenes de IA, Dall-E, generase primordialmente imágenes de hombres blancos.

Cuando se le solicitó representaciones de un director ejecutivo o CEO.

Fuente: DiarioBitcoin