En una reciente iniciativa de Apple la compañía ha tomado la medida de comenzar a analizar las galerías de sus usuarios haciendo uso de inteligencia artificial.
Esto con el fin de frenar y prevenir la distribución de imágenes sobre abuso sexual a los infantes.
Por el momento es una medida que apenas se estará comenzando a implementar en EEUU, sin embargo se planea expandir al resto del mundo en la siguiente actualización.
Esto se lograra por medio de una tecnología que analizará las imágenes subidas a iCloud a través de sus dispositivos.
Por lo que no sera un operador humano quien realizara la inspección de la galería.
Sino una inteligencia artificial encargada de analizar cada imagen para detectar aquellas que sean evidencia de abuso infantil.
De este modo la empresa alertara a las autoridades, brindando evidencia directa que permitirá procesar a quien posea estas imágenes.
Cabe aclarar que este nuevo protocolo de seguridad no vulnerara de ningún modo la seguridad ni privacidad de la galería del usuario.
Todo ya que se implementara un proceso conocido como “hash”.
Con el cual las imágenes se convierten en un conjunto de números con un patrón único que se compara con datos correspondientes a imágenes relacionadas con abuso sexual infantil.
Por tanto la IA será capaz de identificar estas imágenes sin requerir a un operador humano detrás.
Apple aseguró que su tecnología no usará datos ni aprenderá nada de las imágenes escaneadas.
Por lo que las imágenes que no coincidan con la búsqueda del sistema serán ignoradas por el mismo.
Únicamente en caso de una coincidencia, un empleado de la compañía revisara exclusivamente la fotografía señalada.
Si se corrobora la evidencia de contenido de abuso sexual infantil la cuenta de iCloud del usuario en cuestión quedará bloqueada.
Entonces se notificará inmediatamente a las autoridades.
DEJANOS UN COMENTARIO