Limpiar ChatGPT de información falsa

Limpiar ChatGPT de información falsa

El gigante tecnológico OpenAI planea limpiar ChatGPT, el chatbot de inteligencia artificial (AI), de información falsa.

OpenAI anunció así sus esfuerzos por mejorar las capacidades de resolución de problemas matemáticos de ChatGPT.

Con el objetivo de reducir los casos de alucinaciones de la inteligencia artificial (IA).

OpenAI destacó que mitigar las alucinaciones es un paso crucial hacia el desarrollo de una IA alineada.

En marzo, la introducción de la última versión de ChatGPT, ChatGPT-4, impulsó aún más la IA hacia la corriente principal.

Sin embargo, los chatbots generativos de IA llevan mucho tiempo luchando con la exactitud de los hechos.

Generando ocasionalmente información falsa, comúnmente denominada «alucinaciones».

Los esfuerzos para reducir estas alucinaciones de la IA y limpiar ChatGPT de información falsa, se anunciaron a través de un post en el sitio web de OpenAI.

Las alucinaciones de la IA se refieren a casos en los que los sistemas de inteligencia artificial generan resultados incorrectos.

Así como engañosos o sin respaldo de datos del mundo real.

Estas alucinaciones pueden manifestarse de varias formas, como generar información falsa.

También por inventarse sucesos o personas inexistentes o proporcionar detalles inexactos sobre determinados temas.

OpenAI llevó a cabo una investigación para examinar la eficacia de dos tipos de retroalimentación.

La “supervisión de resultados» y la «supervisión de procesos».

Por su parte, la supervisión de resultados se basa en el resultado final.

Mientras que la supervisión de procesos proporciona información sobre cada paso de una cadena de pensamiento.

OpenAI evaluó estos modelos mediante problemas matemáticos, generando múltiples soluciones.

Y seleccionando así la solución mejor valorada según cada modelo de retroalimentación.

Tras un análisis exhaustivo, el equipo de investigación descubrió que la supervisión de procesos ofrecía un rendimiento superior.

Pues animaba al modelo a seguir un proceso aprobado por el ser humano.

En cambio, la supervisión de resultados resultó más difícil de analizar de forma coherente.

Fuente: Cointelegraph