Grupo AGVGSB ROTATIVO MININGgolden arrow
JMB Ingenieria Ambiental - RINFA ENCABEZADOCONOSUR ENCABEZADOPWC LOGO MINING PRESS
Induser ENCABEZADOWICHI TOLEDO ENCABEZADOWEG
CAPMINMANSFIELD MINERA HVELADERO ENCABEZADOKNIGHT PIÉSOLD ENCABEZADO
OMBU CONFECATJOSEMARIA ENCABEZADOBANCO SC ENCABEZADOSAXUM ENGINEERED SOLUTIONS ENCABEZADO
FERMA ENCABEZADOERAMET CABECERA
SACDE ENCABEZADOglencore PACHONNEWMONT COVID
RIO TINTO RINCONHIDROAR ENCABEZADOSECCO ENCABEZADO
CRISTIAN COACH ENCABEZADOEXPO SAN JUAN ENCABEZADOBANCO SJ ENCABEZADOPRELAST
ABRASILVER ENCABEZADORUCAPANELEPIROC ENCABEZADO
CERRO VANGUARDIAEXPO LITIO ENCABEZADOLITHIUM SOUTH
ALEPH ENERGY ENCABEZADOMETSO CABECERAEXAR ENCABEZADO
ARCADIUM LITHIUMMilicic ENCABEZADO
MAPAL ENCABEZADODELTA MINING
PIPE GROUP ENCABEZADMINERA SANTA CRUZPAN AMERICAN SILVER
EVENTO LITIO ENCABEZADOCINTER ENCABEZADOVIALES SANTA FE ENCABEZADO MINING
ACTUALIDAD
Huawei ayudó a China a perseguir minorías. Griezmann: Don't like
MINING PRESS/ENERNEWS/Diarios

la empresa de telecomunicaciones trabajó en 2018 con la empresa de reconocimiento facial Megvii para probar un sistema de cámaras de inteligencia artificial

11/12/2020

DREW HARWELL Y EVA DOU/The Washington Post

El gigante de las telecomunicaciones, que quiere imponer su red de 5G con ayuda de Beijing, es un aliado estratégico para los planes de Xi Jinping

El gigante tecnológico chino Huawei ha probado un software de reconocimiento facial que podría enviar “alarmas uigures” automatizadas a las autoridades gubernamentales cuando sus sistemas de cámaras identifiquen a miembros del grupo minoritario oprimido, según un documento interno que proporciona más detalles sobre el régimen de vigilancia de inteligencia artificial de China.

Un documento firmado por representantes de Huawei, descubierto por la organización de investigación IPVM y compartido exclusivamente con The Washington Post, muestra que la empresa de telecomunicaciones trabajó en 2018 con la empresa de reconocimiento facial Megvii para probar un sistema de cámaras de inteligencia artificial que podía escanear rostros en una multitud y estime la edad, el sexo y la etnia de cada persona.

Si el sistema detectaba el rostro de un miembro del grupo minoritario musulmán -según el informe de la prueba- podría activar una “alarma uigur” -lo que podría marcarlos para la policía en China- cuyos miembros han sido detenidos en masa como parte de una brutal represión del gobierno. El documento, que se encontró en el sitio web de Huawei, fue eliminado poco después de que The Post e IPVM solicitaran comentarios a las empresas.

Esta tecnología ha ganado en los últimos años un papel cada vez más importante entre los departamentos de policía de China, dicen activistas de derechos humanos. Pero el documento arroja nueva luz sobre cómo Huawei, el mayor fabricante mundial de equipos de telecomunicaciones, también ha contribuido a su desarrollo, proporcionando los servidores, cámaras, infraestructura de computación en la nube y otras herramientas que sustentan el poder tecnológico de los sistemas.

John Honovich, fundador de IPVM, una empresa con sede en Pensilvania que revisa e investiga equipos de videovigilancia, dijo que el documento mostraba cuán “aterradora” y “totalmente normalizada” se ha vuelto tal tecnología discriminatoria.

“Esta no es una empresa aislada. Esto es sistemático”, dijo Honovich. “Se pensó mucho en asegurarse de que esta ‘alarma uigur’ funcionara”.

Huawei y Megvii han anunciado tres sistemas de vigilancia que utilizan la tecnología de ambas compañías en los últimos años. The Post no pudo confirmar de inmediato si el sistema con la “alarma Uigur” probado en 2018 era uno de los tres actualmente a la venta. Los representantes de Huawei y Megvii no respondieron de inmediato a las solicitudes de comentarios.

Los funcionarios chinos han dicho que dichos sistemas reflejan el avance tecnológico del país y que su uso ampliado puede ayudar al personal de respuesta del gobierno y mantener a las personas seguras. Pero para los defensores de los derechos internacionales, son una clara señal del sueño de control social de China: una forma de identificar a los miembros desfavorables de la sociedad y aplastar la disidencia pública. El Ministerio de Relaciones Exteriores de China no respondió de inmediato a las solicitudes de comentarios.

Los investigadores de inteligencia artificial y los defensores de los derechos humanos dijeron que les preocupa que el desarrollo y la normalización de la tecnología puedan llevar a su propagación por todo el mundo, ya que las autoridades gubernamentales en otros lugares presionan por una forma rápida y automatizada de detectar a los miembros de los grupos étnicos que consideran indeseables o peligro para su control político.

Maya Wang, investigadora principal de China del grupo de defensa Human Rights Watch, dijo que el país ha utilizado cada vez más la vigilancia asistida por IA para monitorear de cerca al público en general y oprimir a las minorías, manifestantes y otras personas consideradas amenazas para el estado.

“La ambición de vigilancia de China va mucho más allá de la persecución de las minorías”, dijo Wang, pero “la persecución de las minorías obviamente no es exclusiva de China... Y estos sistemas se prestarían bastante bien a los países que quieren criminalizar a las minorías”.

Los sistemas, entrenados en una inmensa cantidad de fotos faciales, pueden comenzar a detectar ciertos patrones que podrían diferenciar, por ejemplo, los rostros de las minorías uigures de los de la mayoría Han en China. En un artículo de 2018, “Descubrimiento de características faciales para el reconocimiento de etnias”, investigadores de IA en China diseñaron algoritmos que podían distinguir entre los “puntos de referencia faciales” de los rostros uigur, coreano y tibetano.

Pero el software ha provocado importantes debates éticos entre los investigadores de IA que dicen que podría ayudar en la discriminación, la elaboración de perfiles o el castigo. También argumentan que el sistema seguramente arrojará resultados inexactos, porque su desempeño variaría ampliamente según la iluminación, la calidad de la imagen y otros factores, y porque la diversidad de etnias y orígenes de las personas no está tan claramente dividida en grupos simples.

Este software de detección de etnicidad no está disponible en los Estados Unidos pero los algoritmos que pueden analizar los rasgos faciales o los movimientos oculares de una persona son cada vez más populares en todo, desde software para entrevistas de trabajo hasta sistemas de monitoreo anti-trampa.

Clare Garvie, asociada senior del Centro de Privacidad y Tecnología de Georgetown Law que ha estudiado el software de reconocimiento facial, dijo que el software de “alarma uigur” representa un paso peligroso hacia la automatización de la discriminación étnica a una escala devastadora. “Hay ciertas herramientas que simplemente no tienen una aplicación positiva y muchas aplicaciones negativas, y una herramienta de clasificación étnica es una de esas”, dijo Garvie. “Nombra una norma de derechos humanos, y esto probablemente viola eso”.

Huawei y Megvii son dos de los pioneros tecnológicos más destacados de China, y los funcionarios los han catalogado como líderes de un impulso nacional para alcanzar la vanguardia del desarrollo de la inteligencia artificial. Pero las empresas multimillonarias también se han enfrentado al rechazo de las autoridades estadounidenses, que argumentan que representan una amenaza para la seguridad de Estados Unidos o que han contribuido al brutal régimen de opresión étnica de China.

El Departamento de Comercio de Estados Unidos sancionó el año pasado a ocho empresas chinas, incluida Megvii, por su participación en “violaciones y abusos de los derechos humanos en la implementación de la campaña de represión, detención arbitraria masiva y vigilancia de alta tecnología de China” contra los uigures y otros musulmanes grupos minoritarios.

El gobierno de Estados Unidos también sancionó a Huawei, prohibiendo la exportación de tecnología estadounidense a la empresa y presionando a otros países para que excluyan sus sistemas de sus redes de telecomunicaciones.

Huawei, un gigante del hardware con equipos y servicios utilizados en más de 170 países, ha superado a Apple para convertirse en el segundo mayor fabricante de teléfonos inteligentes del mundo y está presionando para liderar el despliegue internacional de nuevas redes móviles 5G que podrían remodelar Internet.

Y Megvii, el desarrollador del sistema Face++ con sede en Beijing y una de las empresas emergentes de reconocimiento facial más valoradas del mundo, dijo en un prospecto de oferta pública el año pasado que sus “soluciones de la ciudad [Internet de las cosas]”, que incluyen cámara, sensores y software que las agencias gubernamentales pueden usar para monitorear al público cubrieron 112 ciudades en China hasta junio pasado.

El documento de “alarma Uigur” obtenido por los investigadores, llamado “informe de prueba de interoperabilidad”, ofrece información técnica sobre cómo las autoridades pueden alinear los sistemas Huawei-Megvii con otras herramientas de software para una vigilancia pública sin problemas.

El sistema probó cómo una combinación del software de reconocimiento facial de Megvii y las cámaras, los servidores, el equipo de red, la plataforma de computación en la nube y otro hardware y software de Huawei funcionaban en docenas de “funciones básicas”, incluido su soporte de “reconocimiento basado en la edad, el sexo, origen étnico y ángulo de las imágenes faciales“, afirma el informe. Pasó esas pruebas, así como otra en la que se probó su capacidad para admitir “alarmas uigures” fuera de línea.

El informe de prueba también dijo que el sistema pudo tomar instantáneas en tiempo real de los peatones, analizar archivos de video y reproducir los 10 segundos de metraje antes y después de que se detecte cualquier rostro uigur.

El documento no proporcionó información sobre dónde o con qué frecuencia se usa el sistema. Pero los departamentos de policía de China utilizan sistemas similares, según documentos oficiales revisados el año pasado por The New York Times, que encontró un sistema de ciudad que había escaneado en busca de caras uigures medio millón de veces en un solo mes.

Jonathan Frankle, investigador de aprendizaje profundo en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del Instituto de Tecnología de Massachusetts, dijo que estos sistemas se están convirtiendo claramente en una prioridad entre los desarrolladores que desean capitalizar la capacidad técnica para clasificar a las personas por etnia o raza. La avalancha de datos de imágenes faciales de multitudes públicas, agregó, podría usarse para desarrollar aún más la precisión y el poder de procesamiento de los sistemas.

“La gente no se toma la molestia de construir sistemas costosos como este por nada”, dijo Frankle. “No se trata de gente que quema dinero por diversión. Si hicieron esto, lo hicieron por una razón muy específica en mente. Y esa razón es muy clara”.

Es menos seguro que el software de detección de etnias pueda despegar fuera de las fronteras de un estado de vigilancia. En los Estados Unidos y otras democracias de estilo occidental, los sistemas podrían chocar con leyes establecidas desde hace mucho tiempo que limitan las búsquedas gubernamentales y exigen la igualdad de protección ante la ley.

La policía y las autoridades federales de los Estados Unidos han mostrado un interés creciente en el software de reconocimiento facial como herramienta de investigación, pero los sistemas han provocado una feroz reacción pública por sus posibles sesgos e inexactitudes, y algunas ciudades y fuerzas policiales han optado por prohibir la tecnología por completo.

Sin embargo, estas tecnologías podrían encontrar un mercado entre los regímenes internacionales en algún punto del equilibrio entre la influencia china y estadounidense. En Uganda, la policía y los funcionarios gubernamentales ya han utilizado cámaras de reconocimiento facial de Huawei para vigilar a manifestantes y opositores políticos.

“Si está dispuesto a modelar su gobierno y dirigir su país de esa manera”, dijo Frankle, “¿por qué no utilizaría la mejor tecnología disponible para ejercer control sobre sus ciudadanos?”.

La discriminación contra los uigures ha prevalecido durante mucho tiempo en la mayoría de la población china Han. En la región de Xinjiang, en el noroeste de China, las autoridades han citado actos esporádicos de terrorismo como justificación para una dura represión que comenzó en 2015 y que generó la condena de Estados Unidos y otras naciones occidentales. Los académicos estiman que más de un millón de uigures han sido detenidos en campos de reeducación, con algunas denuncias de tortura.

El asesor de seguridad nacional de Estados Unidos, Robert O’Brien, calificó el trato represivo de los grupos minoritarios en Xinjiang como “algo cercano a” un genocidio, en un evento en línea organizado por el Instituto Aspen en octubre.

Bajo presión internacional, las autoridades de Xinjiang anunciaron en diciembre de 2019 que todos los “estudiantes” de reeducación se habían graduado, aunque algunos uigures han informado desde entonces que se vieron obligados a aceptar trabajar en fábricas o arriesgarse a ser detenidos. Las autoridades de Xinjiang dicen que todos los residentes trabajan por su propia voluntad.

El gobierno de Estados Unidos ha prohibido la importación de ciertos productos de China sobre la base de que podrían haber sido fabricados mediante trabajo forzoso en Xinjiang.

Uno de los sistemas Huawei-Megvii puestos a la venta después de la prueba de “alarma Uigur”, en junio de 2019, se anuncia como un ahorro de espacio de almacenamiento digital de los gobiernos locales al guardar imágenes en un solo lugar.

 

En septiembre de este año se anunciaron para la venta otros dos sistemas, que se dice que utilizan el software de vigilancia de Megvii y la plataforma informática Atlas AI de Huawei. Ambos fueron descritos como “localización” de los productos usando chips de Huawei y listados para la venta “solo por invitación”. Los materiales de marketing para uno de esos sistemas dicen que fue utilizado por las autoridades de la provincia de Guizhou, en el sur de China, para atrapar a un criminal.

Antoine Griezmann cortó sus vínculos con Huawei por su apoyo a la “represión masiva” contra la minoría musulmana de los uigures en China

Reuters

El futbolista Antoine Griezmann anunció este jueves que cortará todos sus vínculos con la firma china Huawei debido a sus vínculos con la represión a la minoría uigur en China, donde el régimen utiliza programas del gigante tecnológico para la vigilancia de la población.

(Reuters)

“Tras las fuertes sospechas según las cuales la empresa Huawei podría haber contribuido al desarrollo de una “Alerta Uighur” a través de un software de reconocimiento facial, anuncio que termino inmediatamente mi colaboración con esta compañía”, indicó la estrella francesa en su cuenta de Instagram, luego de que una investigación divulgue los vínculos de la empresa con la persecución de la minoría musulmana.

El anuncio en el perfil de Instagram

El anuncio en el perfil de Instagram

El futbolista del Barcelona también instó a la firma china a condenar la represión del gigante asiático. “Aprovecho la ocasión para invitar a Huawei no sólo a negar estas acusaciones, sino a tomar acciones concretas lo antes posible para condenar esta represión masiva y usar su influencia para contribuir al respeto de los derechos humanos en la sociedad”, añadió en su texto, que rápidamente superó los 100 mil “me gusta”.

Se desconocen los detalles del acuerdo que sostenía Griezmann con Huawei, pero era embajador de la marca desde 2017.

Griezmann era embajador de Huawei

Griezmann era embajador de Huawei

Esta semana se conocieron documentos que muestran que el gigante tecnológico chino ha probado un software de reconocimiento facial que podría enviar “alertas uigures” automatizadas a las autoridades del régimen chino cuando sus sistemas de cámaras identifiquen a miembros del grupo minoritario oprimido, .

Un documento firmado por representantes de Huawei, descubierto por la organización de investigación IPVM y compartido exclusivamente con The Washington Post, muestra que la empresa de telecomunicaciones trabajó en 2018 con la empresa de reconocimiento facial Megvii para probar un sistema de cámaras de inteligencia artificial que podía escanear rostros en una multitud y estime la edad, el sexo y la etnia de cada persona.

 

Si el sistema detectaba el rostro de un miembro del grupo minoritario musulmán -según el informe de la prueba- podría activar una “alerta uigur” -lo que podría marcarlos para la policía en China- cuyos miembros han sido detenidos en masa como parte de una brutal represión del gobierno. El archivo, que se encontró en el sitio web de Huawei, fue eliminado poco después de que The Post e IPVM solicitaran comentarios a las empresas.


Vuelva a HOME


*La información y las opiniones aquí publicados no reflejan necesariamente la línea editorial de Mining Press y EnerNews

KNIGHT PIESOLD DERECHA NOTA GIF 300
Lo más leído
PODER DE CHINA
AGUA Y MINERIA
NOTA MÁS LEIDAs MP GIF
VENEZUELA