Por ejemplo, explica, “un vídeo en directo de alguien explicando que se quería suicidar, tenías que seguir viéndolo, y no podías eliminarlo ni avisar a la policía si no veías algo en la escena que sugiriese el suicido, una pistola, una ventana abierta… A veces de pronto sacaban la pistola y se disparaban, sin que hubieses podido hacer nada”.

“Tenías que calificar el vídeo por lo peor que ocurriera, según una escala. Si empezaba el vídeo con algún tipo de violencia, había que esperar por si salía algo más grave, como un asesinato, un desmembramiento o un abuso sexual, para calificarlo según lo más grave. Si la violencia más grave salía al principio, el sistema te dejaba eliminarlo”, detalla.

La empresa asegura que cuenta con un programa de bienestar integral, incluyendo apoyo médico externo, asesores disponibles las 24 horas, descansos y sesiones de emergencia, y tecnología para desenfocar videos o apagar el sonido.