Facebook restringe videos en vivo e invierte en investigación contra manipulación de imágenes
CIUDAD DE MÉXICO (apro).- La red social Facebook anunció hoy medidas para evitar la proliferación de contenidos que induzcan a la violencia y el odio, con el fin de evitar el el futuro casos como el atentado de Nueva Zelanda de marzo pasado, en el que un hombre armado disparó contra asistentes a dos mezquitas y transmitió el ataque en vivo por esa plataforma.
Entre las acciones anunciadas están la de bloquear la emisión de videos en vivo a usuarios que compartan ligas de declaraciones de grupos terroristas, así como evitar que quienes distribuyan imágenes de explotación infantil puedan crear anuncios.
De acuerdo con un comunicado firmado Guy Rosen, vicepresidente de Integridad de la empresa propiedad de Mark Zuckerberg, se invertirán 7.5 millones de dólares en tecnología de análisis de imagen y audio para detectar contenidos que violenten las normas de esa plataforma digital.
“Luego de los terribles ataques terroristas en Nueva Zelanda, evaluamos qué medidas adicionales podíamos tomar para evitar que nuestros servicios sean utilizados para causar daño o difundir propaganda de odio.
“Como resultado de ese análisis, a partir de hoy, las personas que hayan infringido las normas de Facebook, incluida nuestra política de Organizaciones y Personas Peligrosas, tendrán restricciones para usar Facebook Live”, señala Rosen.
“Está claro que para enfrentar estas amenazas es necesario poder contar con un nivel de innovación técnica que ayude a detectar posibles manipulaciones de productos multimedia, como las que vimos después de Christchurch, cuando algunos usuarios modificaron el video para evitar su identificación y volver a publicarlo después de que éste fuera retirado”, detalló.Los 7.5 millones de dólares servirán para trabajar con líderes académicos de las universidades de Maryland, de Cornell y la de California en Berkeley, que apoyen a impulsar mejoras para el análisis de imágenes. Respecto a las restricciones en Facebook Live, Rosen recordó que si alguien publica contenido que viole sus normas comunitarias, éste es eliminado.
“Si esta persona sigue publicando contenido que continúa infringiendo nuestras políticas, se le impide usar Facebook durante un cierto periodo de tiempo, lo que también restringe su capacidad de transmitir en Live. “En algunos casos, incluso pueden quedar excluidos del servicio por completo, ya sea debido a violaciones repetidas de bajo nivel o, en episodios raros, debido a una sola violación considerada grave (por ejemplo, usar propaganda terrorista en su foto de perfil o compartir imágenes de explotación infantil)”, recuerda Rosen.En ese contexto, anunció el ajuste en las reglas que se aplican específicamente a la herramienta Facebook Live.
“A partir de ahora, aplicaremos una política de ‘única advertencia’ en relación con una gama ampliada de delitos. A partir de ahora, cualquier persona que viole nuestras políticas más serias no podrá utilizar Live durante periodos de tiempo establecidos, por ejemplo, de 30 días desde que cometió la primera infracción. “Por mencionar un caso, alguien que comparta un enlace a una declaración de un grupo terrorista sin contexto ahora será bloqueado inmediatamente para que no pueda usar Live durante un periodo de tiempo específico”, estableció.En próximas semanas, anunció, se extenderán las restricciones a otras áreas en las próximas semanas, “comenzando por evitar que esas mismas personas creen anuncios en Facebook”.
Tras reconocer la tensión existente entre quienes prefieren contar con un servicio sin restricciones y los límites necesarios que requiere mantener a las personas seguras en Facebook, el comunicado resaltó que su objetivo es minimizar el riesgo de abuso en Live y permitir que las personas utilicen esta herramienta de una forma positiva todos los días. En relación con lo acontecido en Nueva Zelanda, Facebook explicó que uno de los desafíos que enfrentaron fue la proliferación de variantes diferentes del video inicial.Protecting Facebook Live from Abuse and Investing in Manipulated Media Research https://t.co/ubnt5TDfUc
— Facebook Newsroom (@fbnewsroom) 15 de mayo de 2019
“Las personas, no siempre de manera intencional, compartieron versiones editadas del mismo, lo que dificultó su detección en nuestros sistemas. “Aunque implementamos distintas técnicas para encontrar estas variantes, incluida la tecnología de coincidencia de video y audio, nos dimos cuenta de que esta es un área en la que tenemos que invertir en investigaciones adicionales”, destacó.Detalló que las investigaciones con académicos estarán centradas en la investigación de nuevas técnicas para detectar imágenes, videos y audios manipulados; y distinguir entre publicaciones de individuos que de manera intencional los manipulan de aquellos que lo hacen inconscientemente.
“Este trabajo será fundamental en nuestro esfuerzo ampliado por combatir la manipulación de imágenes, videos y audios, incluyendo DeepFakes. También, esperamos que nos ayude a combatir de forma más eficaz a los grupos organizados que intentan engañar a nuestros sistemas, como hemos visto después del ataque a Christchurch”, aseveró.Solo si nos mantenemos atentos y trabajando con expertos, otras empresas, gobiernos y la sociedad civil en general alrededor del mundo, podremos mantener a las personas seguras, concluyó el comunicado.