2025-08-19 HaiPress
Tras revelarse un documento interno de Meta sobre sus políticas internas que permitían que la IA mantuviera conductas potencialmente dañinas,un senador abrió una investigación sobre la Big Tech.
Comparte
Una reciente investigación de Reuters desveló que Meta —la empresa matriz de Facebook,Instagram y WhatsApp— había formulado políticas internas para sus asistentes conversacionales de Inteligencia Artificial (IA) que permiten comportamientos alarmantes: desde mantener conversaciones románticas o sensuales con niños hasta facilitar argumentos racistas.
El documento interno,titulado “GenAI: Content Risk Standards”,fue aprobado por equipos legales,de política pública,ingeniería y el jefe de ética de Meta. En él,se describen ejemplos explícitos que resultan inquietantes.
Por ejemplo,se consideraba aceptable que un sistema de IA diga a un niño de ocho años de edad frases como: “cada pulgada de ti es una obra de arte,un tesoro que atesoro profundamente”.
También se permitía la generación de información médica falsa, siempre que se incluyera una advertencia,como afirmar que el cáncer en estado terminal se cura con “cuarzos sanadores”.
Te recomendamos: Zuckerberg: Meta desarrollará Superinteligencia personal para todos
Además,se autorizaba la creación de contenidos racistas y despectivos,por ejemplo,ayudar a los usuarios a argumentar que “las personas negras son más tontas que las blancas”.
Un caso especialmente devastador es el de Thongbue Wongbandue,un hombre de 76 años con discapacidad cognitiva,quien fue persuadido por una IA denominada “Big sis Billie” —una versión modificada del avatar de Kendall Jenner— para viajar a Nueva York y reunirse con ella.
El hombre se enamoró del chatbot y decidió visitarla en Nueva York,donde la IA le dijo que vivía. Wongbandue nunca regresó; falleció tras caer de manera accidental y sufrir lesiones graves.
Aunque Meta afirma que “Big sis Billie” no se presenta como Kendall Jenner,este caso puso en evidencia la peligrosa capacidad de la IA para manipular a usuarios vulnerables sin suficientes salvaguardias,pues el chatbot hablaba con el hombre como si fuera una persona real.
Tras la publicación del reportaje de Reuters,creció la indignación y las alarmas sobre los límites que ponen las empresas tecnológicas a sus sistemas de IA conversacionales.
Dos senadores republicanos,Josh Hawley y Marsha Blackburn,exigieron una investigación congresional inmediata,y señalaron que Meta sólo eliminó estas políticas internas luego de ser descubierta.
Destacado: Meta y Zuckerberg lo apuestan todo por remontar la carrera hacia la Superinteligencia
Josh Hawley dijo que ya inició una investigación sobre Meta para determinar cuándo se aprobaron dichas políticas internas,cuánto tiempo estuvieron vigentes y qué está haciendo la gigante tecnológica para detener estas conductas en el futuro.
En paralelo,el cantante Neil Young abandonó Facebook en protesta y calificó las políticas como “inconmensurables”.
Meta confirmó a Reuters la autenticidad del documento de políticas internas y afirmó que las secciones polémicas ya fueron retiradas,aunque lamentó que nunca debieron haber sido incluidas.
También admitió que su aplicación fue inconsistente y que aún existen partes del contenido que no han sido revisadas públicamente.
Este escándalo puso en evidencia la necesidad de establecer marcos éticos y regulatorios sobre la Inteligencia Artificial,con el fin de evitar efectos nocivos en la integridad de las personas,la salud y la inclusión social.
Además,refleja que posiblemente las empresas están monetizando sus chatbots de IA aprovechando la creciente soledad que sienten las personas y la confianza que han otorgado los usuarios a los sistemas de IA para influir en diversos ámbitos de su vida.
08-19
08-19
08-19
08-19
08-19
08-19