Facebook expandirá inteligencia artificial para ayudar a prevenir el suicidio

Martes, 28/11/2017
La red social ampliará su software de reconocimiento de patrones a otros países luego de pruebas exitosas en los EE. UU. para detectar usuarios con intención suicida.
Reuters Health

Facebook Inc. ampliará su software de reconocimiento de patrones a otros países luego de pruebas exitosas en los EE. UU. para detectar usuarios con intención suicida, dijo el lunes la red de medios sociales más grande del mundo.

Facebook comenzó a probar el software en los Estados Unidos en marzo, cuando la compañía comenzó a escanear el texto de las publicaciones en Facebook y comentarios sobre frases que podrían ser señales de un suicidio inminente.

Facebook no ha revelado muchos detalles técnicos del programa, pero la compañía dijo que su software busca ciertas frases que podrían ser pistas, como las preguntas "¿Estás bien?" y "¿Puedo ayudar?"

Si el software detecta un posible suicidio, alerta a un equipo de trabajadores de Facebook que se especializan en el manejo de dichos informes. El sistema sugiere recursos para el usuario o para los amigos de la persona, como una línea de ayuda telefónica. Los trabajadores de Facebook a veces llaman a las autoridades locales para intervenir.

Guy Rosen, vicepresidente de gestión de productos de Facebook, dijo que la compañía estaba comenzando a lanzar el software fuera de los Estados Unidos porque las pruebas fueron exitosas. Durante el mes pasado, dijo, los primeros en responder revisaron a las personas más de 100 veces después de que el software de Facebook detectó intención suicida.

Otras firmas de tecnología también intentan prevenir suicidios. El motor de búsqueda de Google muestra el número de teléfono de una línea directa de suicidio en respuesta a determinadas búsquedas.

Facebook dijo que intenta tener empleados especializados disponibles a cualquier hora para llamar a las autoridades en los idiomas locales.

"La velocidad realmente importa. Tenemos que ayudar a la gente en tiempo real ", dijo Rosen.

El año pasado, cuando Facebook lanzó la transmisión de video en vivo, proliferaron los videos de actos violentos, incluidos los suicidios y asesinatos, que representan una amenaza para la imagen de la compañía. En mayo, Facebook dijo que contrataría a 3.000 personas más para monitorear videos y otro contenidos.

Rosen no mencionó los países donde Facebook estaba implementando el software, pero dijo que eventualmente se usaría en todo el mundo, excepto en la Unión Europea debido a las sensibilidades, que declinó analizar.

Otras firmas de tecnología también intentan prevenir suicidios. El motor de búsqueda de Google muestra el número de teléfono de una línea directa de suicidio en respuesta a determinadas búsquedas.

Facebook sabe mucho acerca de sus 2.100 millones de usuarios, datos que utiliza para publicidad dirigida, pero en general la compañía no ha sido conocida anteriormente por analizar sistemáticamente las conversaciones en busca de patrones de comportamiento dañino.

Una excepción son sus esfuerzos por detectar conversaciones sospechosas entre niños y adultos abusadores sexuales. Facebook a veces contacta a las autoridades cuando sus pantallas automatizadas recogen un lenguaje inapropiado.

Pero puede ser más difícil para las empresas tecnológicas justificar el escaneo de conversaciones en otras situaciones, dijo Ryan Calo, un profesor de derecho de la Universidad de Washington que escribe sobre tecnología.

"Una vez que abres la puerta, te preguntarás qué otro tipo de cosas estaríamos buscando", dijo Calo.

Rosen no quiso decir si Facebook estaba considerando software de reconocimiento de patrones en otras áreas, como los delitos no sexuales.

Comentarios