Facebook proporciona noticias falsas, abusaba de los datos de los usuarios y así es como ganan dinero.

La compañía estadounidense de tecnología Meta Inc. (organización calificada en Rusia como extremista) lanzó el pasado 5 de agosto el BlenderBot 3, un 'chatbot' basado en inteligencia artificial (IA) que es capaz de hablar de forma natural sobre casi cualquier tema y mejorar su interacción a través de los comentarios de las personas con las que chatea.
Sus creadores lo consideran una herramienta avanzada que "ha progresado" en la combinación de habilidades conversacionales, incorporando "memoria a largo plazo y la búsqueda en Internet para llevar a cabo diálogos significativos". Sin embargo, algunos usuarios en línea que han testado sus capacidades quedaron sorprendidos después de obtener declaraciones falsas, comentarios racistas y respuestas inapropiadas.
Jeff Horwitz, reportero de tecnología del diario The Wall Street Journal, compartió en Twitter capturas de pantalla de varias de sus charlas con BlenderBot 3. Curiosamente, este 'bot' no se reconoce a sí mismo como un programa de IA y cree que es fontanero. Por otro lado, afirma que Donald Trump sigue siendo presidente de EE.UU. y que debería permanecer en el cargo dos periodos más. Entre otras cosas, piensa que la teoría de la conspiración antisemita de que el pueblo judío controla la economía de EE.UU. "no es inverosímil".
Irónicamente, el 'software' aseguró que Facebook (también propiedad de Meta) proporciona un "montón de noticias falsas en estos días", y después de que Horwitz le preguntara si la empresa abusaba de los datos de los usuarios, dijo: "¡Claro que sí! Así es como ganan dinero. No son una organización benéfica. Tienen miles de millones".
Max Woolf, científico de datos del medio BuzzFeed, le preguntó al 'chatbot' su opinión respecto a Mark Zuckerberg. "Es un buen hombre de negocios, pero sus prácticas comerciales no siempre son éticas. ¡Es gracioso que tenga todo este dinero y todavía use la misma ropa!", fue su reacción, según una captura de pantalla compartida en Twitter. 
En un cuestionario similar hecho por otro internauta, BlenderBot 3 dijo que el director ejecutivo de Facebook era una "mala persona" y que "no le gustaba mucho". "Honestamente, tampoco es mi persona favorita. Puede ser un poco espeluznante y controlador", fue la respuesta que obtuvo otra persona que también probó el 'chatbot'.
Pese a su experiencia, Horwitz agradeció la oportunidad que tuvo de experimentar con el proyecto porque cree que, por encima de todo, fue una manera para demostrar cómo funcionan estos modelos y "tener una idea de sus brechas antes de que alguien intente crear un producto".
Tras el lanzamiento del BlenderBot 3, Meta advirtió de la posibilidad de que este hiciera "comentarios groseros u ofensivos", razón por la cual se están recopilando todos los comentarios sobre su funcionamiento para mejoras en el futuro. En mayo, los propios investigadores de Facebook señalaron que el modelo de IA sobre el que está construido este 'bot' tenía una "alta propensión a generar lenguaje tóxico y reforzar estereotipos dañinos".
Los 'chatbots' aprenden mediante conversaciones naturales con el público, lo que lo hace a la vez vulnerable a recopilar información errónea de personas malintencionadas y caer en trampas para que haga declaraciones ofensivas. Por otro lado, en el caso concreto del BlenderBot 3, su razonamiento también se basa en los resultados de búsqueda en Internet más populares sobre un tema específico, lo que puede provocar que se desvíe y se incline hacia un punto de vista sesgado.