TECNOLOGÍA.-La empresa informática Apple presentó nuevas herramientas para detectar de manera eficaz las imágenes de contenido sexual que involucran a niñas o niños en su iPhone, iPad y su servidor iCloud en Estados Unidos, lo que suscitó preocupaciones entre quienes defienden la libertad y privacidad en Internet.
“Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de pornografía infantil”, dijo el grupo en su página.
La compañía usará herramientas de cifrado que analicen y vinculen imágenes que consideren sospechosas con un número específico para cada una.
También planea comparar las fotos cargadas en iCloud con las almacenadas en su archivo administrado por el Centro Nacional de Niños Desaparecidos y Explotados, una corporación privada estadounidense que trabaja para reducir la explotación sexual infantil.
Apple asegura que no tiene acceso directo a dichas imágenes. Cuando una foto se parezca a alguna del archivo, la compañía de la manzanita la revisará manualmente, deshabilitará la cuenta y el usuario si es necesario y enviará un informe a la corporación.
El gigante tecnológico también está planeando nuevas herramientas para prevenir a las niñas, niños y a sus cuidadores o responsables que tienen una cuenta de “Compartir en familia” cuando fotos explicitas les sean enviadas a la aplicación Mensajes.
Las fotos se verán borrosas y se remitirá al niño o niña a los mensajes de prevención con un advertencia de no está obligado a abrir dicha imagen.