Facebook recurrirá a la tecnología de inteligencia artificial para detectar si es que alguien está considerando el suicidio.
La red social ya cuenta con mecanismos para reportar mensajes publicados por gente que está considerando lastimarse a sí misma. La nueva función tiene como fin detectar tales mensajes publicados antes de que alguien lo reporte.
El servicio escaneará mensajes y videos en vivo usando una técnica llamada “reconocimiento de patrones”. Por ejemplo, comentarios como “¿Estás bien?” pueden indicar pensamientos suicidas.
Facebook ya ha estado probando la función en Estados Unidos y la está llevando a otros países. La Unión Europea está excluida, pero la compañía no explicó por qué.
La empresa también está usando inteligencia artificial para establecer la prioridad de la lista de los mensajes reportados que son enviados a personas moderadoras para que alerten rápidamente a las autoridades.
Aún se recuerda el 22 de enero de 2016, cuando una joven de 14 años de Miami, Nakia Venant, se ahorcó con una bufanda en el baño de su casa. Nakia transmitió su suicidio en directo a través de Facebook Live para cientos de espectadores, entre ellos su madre.
En redes sociales se han observado fenómenos como el Juego de la ballena azul, compuesto 50 pruebas –una diaria– cuyo desafío final consistía en suicidarse saltando desde un balcón.
AP / OnCuba