ChatGPT sufrió un colapso público

ChatGPT sufrió un colapso público

El chabot de inteligencia artificial ChatGPT sufrió un colapso público, pero la empresa creadora OpenAI dice que ya está bien.

El último e inexplicable lío con las respuestas de ChatGPT pone así de relieve los peligros de la automatización.

El popular sistema de inteligencia artificial (IA) ChatGPT de OpenAI sufrió un pequeño colapso público entre el 20 y 21 de febrero.

En el que confundió y desconcertó a los usuarios emitiendo incoherencias y otras rarezas.

Incluyendo un seudoshakespeare que nadie solicitó.

El problema aparentemente se resolvió.

La última actualización en la página de Estado de OpenAI indica que «ChatGPT está operando normalmente».

Esto indica que el problema se resolvió 18 horas después de que OpenAI lo informara por primera vez.

En este momento no está claro qué causó exactamente el problema.

Pero parece que ChatGPT experimentó algún tipo de confusión en la tokenización.

Como indicó un examen superficial de las salidas que se informaron.

Sin embargo, puede que no sea posible para los científicos de OpenAI diagnosticar exactamente qué salió mal.

Debido a la naturaleza de caja negra de los modelos de lenguaje grandes construidos con tecnología GPT.

Si este es el caso, es probable que el equipo se centre en medidas preventivas.

Como implementar más protecciones contra cadenas largas de aparente sin sentido.

La percepción en las redes sociales parece indicar que cualquier daño que causó el chatbot fue, en gran medida, limitado.

A perder el tiempo de los usuarios que esperaban respuestas coherentes a las consultas.

Sin embargo, esta instancia ilustra el potencial de los sistemas de inteligencia artificial generativa.

Para enviar mensajes inesperados, alucinados o inconsistentes en cualquier momento.

Estos tipos de respuestas no deseadas pueden tener consecuencias negativas.

Air Canada, por ejemplo, descubrió recientemente que no podía culpar al algoritmo.

Cuando un tribunal le ordenó pagar un reembolso parcial a un cliente que recibió información incorrecta.

Sobre las políticas de reservas de un chatbot de servicio al cliente.

Fuente: Cointelegraph