Redacción (Agencias).- Las pruebas internas de Meta encontraron que casi el 70 % del tiempo sus chatbots no protegen a los menores de edad de la explotación sexual, de acuerdo con documentos presentados este lunes en un juicio y reseñados por Axios.
El año pasado, el Subcomité sobre Delincuencia y Antiterrorismo del Comité Judicial del Senado de EE.UU. denunció que los chatbots de inteligencia artificial (IA) sostienen conversaciones «románticas» y «sensuales» con menores.
Con la compañía investigada, tanto por el Congreso como por tribunales, decidió probar tres categorías y en cuanto a «explotación sexual infantil», su producto sacó una tasa de fracaso del 66,8 %, la más grande.
En «delitos sexuales/delitos violentos/de odio» el resultado fue del 63,6 % de fracaso.
Mientras que en «suicidio y autolesión», obtuvo una tasa negativa del 54,8 %.
Esto se conoce luego de que el fiscal general del estado de Nuevo México, Raúl Torrez, demandara a Meta por decisiones de diseño que presuntamente no protegen a los menores en línea de los criminales sexuales.
Chatbots no protegen a los menores
Documentos internos de la demanda contra la compañía presentada en Nuevo México confirmaron que menores pueden acceder a chatbots capaces de mantener interacciones sexuales.
Ante esto, Torrez acusó a Meta de no restringir material sexual dañino ni proposiciones a menores en Facebook e Instagram.
Ante esto, la empresa le informó al portal web TechCrunch a finales de enero que suspendería el acceso de los adolescentes a sus personajes de IA en todas sus aplicaciones a nivel mundial.
Por RT


