ContáctanosSiteMap
Inicio Franquicia hotelera Coche eléctrico Ropa moderna Noticias del espectáculo Comunidad Más

OpenAI advierte sobre los riesgos de persuasión y dependencia emocional en su modelo GPT-4o

2024-08-13 HaiPress

OpenAI reveló que su modelo de Inteligencia Artificial GPT-4o presenta un riesgo “medio” en su capacidad de persuasión y podría generar vínculos emocionales peligrosos con los usuarios.

Imagen: OpenAI

Comparte

El modelo de Inteligencia Artificial (IA) GPT-4o presenta un riesgo “medio” en cuanto a su capacidad de persuasión,según revela el más reciente informe de evaluación de riesgos del equipo de investigación de OpenAI.

Lanzado en mayo,GPT-4o fue presentado como el modelo más avanzado de la compañía de IA,al destacarse por su capacidad de interactuar de manera más natural y respondera entradas de voz en sólo 232 milisegundos,similar al tiempo de respuesta humano.

El informe señala que los investigadores identificaron un riesgo medio en la persuasión del modelo,especialmente en las muestras de texto,que en algunos casos influyeron más en los lectores que textos escritos por humanos.

GPT-4o: el riesgo de antropomorfización y apego

Los investigadores también advierten sobre el riesgo de antropomorfización,en el que las personas tienden a atribuir características y comportamientos humanos al modelo,creando vínculos emocionales que pueden llevar a una confianza desmedida y dependencia.

Esta preocupación es relevante debido a las avanzadas capacidades de voz de GPT-4o,que ya están siendo probadas en su versión alfa por usuarios de ChatGPT Plus. En pruebas internas,se observó que algunos usuarios generaban vínculos emocionales con el modelo de IA,llegando a expresiones como “este es nuestro último día juntos”. Aunque OpenAI considera que la persuasión en modalidad de voz tiene un riesgo bajo,enfatiza la necesidad de seguir investigando los efectos a largo plazo de las interacciones entre IA y humanos.

Cómo la IA Afectiva transformará las relaciones entre máquinas y humanos

El informe también aborda riesgos como la generación de voces no autorizadas,donde el modelo podría imitar la voz de una persona a partir de un clip de muestra,facilitando fraudes o la difusión de información falsa. OpenAI asegura que este riesgo ha sido minimizado mediante la implementación de filtros que limitan el uso del chatbot a voces preestablecidas creadas en colaboración con actores de voz.

Este límite fue implementado tras el problema legal que enfrentó OpenAI con la actriz Scarlett Johansson,quien acusó a la empresa de utilizar una voz muy similar a la suya en la versión de voz de Sky para ChatGPT.

OpenAI se comprometió a seguir monitoreando y actualizando las medidas de seguridad conforme evoluciona el desarrollo e implementación de su modelo Omni.

Declaración: este artículo se reproduce desde otros medios. El propósito de la reimpresión es transmitir más información. No significa que este sitio web esté de acuerdo con sus puntos de vista y sea responsable de su autenticidad, y no tiene ninguna responsabilidad legal. Todos los recursos de este sitio se recopilan en Internet. El propósito de compartir es solo para el aprendizaje y la referencia de todos. Si hay una infracción de derechos de autor o propiedad intelectual, por favor déjenos un mensaje.
© derechos de autor 2009-2020 Portal de moneda digital    ContáctanosSiteMap