Un trabajo publicado en JAMA muestra que de las 36 apps más conocidas de asistencia en temas de salud mental y cesación tabáquica, 29 transmiten la información que recolectan a Google o Facebook, pero únicamente 12 lo mencionaron en su política de privacidad (esa a la que le damos ACEPTO sin leer).
Link al artículo
Si uno tiene un problema es bueno pedir ayuda, el problema está cuando quién te ayuda está ayudando a otros en sus políticas de ventas.
Este trabajo deja al descubierto una problemática que aún no tiene solución en estos días. Con quién comparten información las apps que la recolectan. Los grandes tecnológicos están utilizando hoy los datos que recolectan principalmente para vender publicidad o para entrenar algoritmos, si estás deprimido, podrían ofrecerte asesoramiento de expertos, si tienes problemas con el juego podrían ofrecerte un fin de semana en Las Vegas a precio promocional o si tienes un trastorno bipolar en fase maníaca mucho one-click-shopping.
La tentación de vender más, es sorprendentemente fuerte, y puede perjudicar la salud de algunas personas. Es necesario monitorizar estos efectos secundarios de utilizar apps.
Facebook desarrolló en 2017 un algoritmo que analiza el muro de cada persona y predice si está en riesgo de suicidarse. Una mujer Argentina de Santiago del Estero fue rescatada de una intoxicación voluntaria medicamentosa gracias a una alerta que se envió desde Facebook a la Fiscalía Argentina indicando que habían detectado un mensaje con alta predicción de conducta suicida. Facebook además envió las coordenadas del usuario y la mujer fue rescatada y llevada a un hospital.
Link a la noticia con el texto que fue usado para la predicción
Es muy probable que Facebook haya desarrollado su algoritmo de detección de suicidio con la información tomada de las apps de salud mental que le envían información.
Si atiendes pacientes y ves que una app puede ayudarle. ¿Promoverías su uso?