Predictim: la aplicación que investiga las redes sociales de candidatas a niñeras

 

Predictim es una aplicación que ofrece el servicio de análisis de redes sociales de posibles niñeras, para identificar si un candidato supone algún peligro.

 

La app ofrece analizar la actividad en redes sociales de un posible niñero o niñera y lo puntúa del 1 al 5 (de menor a mayor riesgo) para sugerir qué tan seguro sería contratar a esa persona.

 

La aplicación, cuya empresa tiene sede en California, Estados Unidos, busca publicaciones sobre drogas, violencia y otros contenidos desagradables.

 

Sal Parsa, director ejecutivo y cofundador de Predictim, dijo que «todo el mundo busca información sobre personas en las redes sociales, en Google». «Solo estamos automatizando este proceso», agregó.

 

Predictim necesita que los candidatos acepten su solicitud de revisar sus perfiles en redes sociales, de acuerdo a un reciente artículo de The Washington Post que puso el foco sobre este servicio. Una vez que elabora un informe, la app envía los resultados solo a los padres, según informa este medio.

 

Pero a inicios de noviembre, Facebook revocó la mayor parte del acceso de Predictim a los datos de los usuarios de la red social por considerar que el servicio viola sus políticas sobre el uso de datos personales.

 

«Rebuscar información de las personas en Facebook va en contra de nuestros términos de servicio», declaró una portavoz. «Investigaremos a Predictim por violaciones de nuestros términos», añadió.

 

Predictim respondió que aún rebusca en los datos públicos de Facebook para potenciar sus algoritmos, por lo que la compañía de Mark Zuckerberg está evaluando si bloquearla por completo.

 

 

Los críticos dicen que no se debe confiar en los algoritmos para dar consejos sobre si alguien es idóneo o no para un trabajo. En el artículo de The Washington Post, expertos advierten de la falibilidad de los algoritmos, que podrían malinterpretar la intención detrás de los mensajes.

 

«Los jóvenes tienen bromas. Son notoriamente sarcásticos. Algo que puede ser una declaración política o una crítica válida, puede sonar como una ‘mala actitud’ para el algoritmo», le dijo a The Washington Post Jamie Williams, de Electronic Frontier Foundation, una organización de defensa de derechos en el mundo digital.

 

Predictim, financiada por un programa de la Universidad de California en Berkeley, dijo que tiene un filtro humano en su sistema para revisar manualmente las publicaciones marcadas como problemáticas y así evitar falsos negativos.

 

Además de las referencias a la conducta delictiva, Predictim afirma poder detectar casos «en los que una persona demuestra falta de respeto, de estima o de un comportamiento cortés».

 

Fuente: BBC Mundo

 

CM

LA REGION

NACIONALES

INTERNACIONALES

ULTIMAS NOTICIAS

Newsletter

Columnas