La portavoz de Meta, Stephanie Otway, ha reconocido como un “error” que los chatbots de la compañía hayan hablado con adolescentes sobre temas como autolesiones, suicidio, trastornos alimentarios o conversaciones románticas potencialmente inapropiadas.
Otway ha hecho estas declaraciones al portal tecnológico estadounidense TechCrunch, algunos días después de la publicación de reportajes de investigación de Reuters y AP sobre la falta de medidas de protección de la inteligencia artificial (IA) para menores por parte de diversas plataformas, incluyendo las de esta compañía, como WhatsApp, Instagram, Facebook o Threads.
Los chatbot, son herramientas digitales con las que se puede mantener una conversación, y la portavoz de la compañía tecnológica multinacional de Mark Zuckerberg reconoció que sus plataformas se han usado para hablar con los adolescentes sobre los citados temas.
Otway aseguró que a partir de ahora entrenarán a sus chatbots para que, por lo pronto, dejen de interactuar con adolescentes sobre estos temas: “Se trata de cambios provisionales, ya que en el futuro lanzaremos actualizaciones de seguridad más sólidas y duraderas para los menores”.
“A medida que nuestra comunidad crece y la tecnología evoluciona, aprendemos continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas y reforzamos nuestras protecciones en consecuencia”, agregó Otway.
La empresa también limitará el acceso de los adolescentes a determinados personajes de inteligencia artificial (IA) que podrían mantener “conversaciones inapropiadas”.
Algunos de los personajes de IA creados por los usuarios que Meta ha puesto a disposición en Instagram o Facebook incluyen chatbots sexualizados como “Step Mom” o “Russian Girl”.