CEO de Google, Sundar Pichai: Esta es la razón por la cual la IA debe ser regulada

CEO de Google Sundar Pichai Esta es la razon por

El CEO de Google, Sundar Pichai, ha explicado por qué los gobiernos del mundo necesitan imponer regulaciones sobre el uso de la inteligencia artificial (IA) más allá de los principios publicados por una empresa.

Pichai expuso sus pensamientos sobre la regulación de la IA en el Financial Times hoy, reflexionando sobre los propios principios de IA de Google, que publicó a mediados de 2018 luego de una protesta de los empleados por su trabajo en el Proyecto Maven del Pentágono. El proyecto aplicó la IA de reconocimiento de objetos desarrollada por Google a la tecnología de vigilancia con drones.

Google prometió en sus principios de IA no crear IA que dañaría a las personas, pero Pichai señaló que «los principios que permanecen en el papel no tienen sentido» sin acción, señalando las herramientas que Google ha desarrollado y de código abierto para probar la IA en busca de «equidad».

VER: Cómo implementar la IA y el aprendizaje automático (Informe especial de MarketingyPublicidad.es) | Descarga el informe en PDF (República Tecnológica)

Pero también admite que con cada gran innovación vienen posibles efectos secundarios negativos.

«Existen preocupaciones reales sobre las posibles consecuencias negativas de la IA, desde falsificaciones profundas hasta usos nefastos del reconocimiento facial. Si bien ya se está trabajando para abordar estas preocupaciones, inevitablemente habrá más desafíos por delante que ninguna empresa o industria puede resolver. solo», escribe.

Pichai argumenta que los gobiernos pueden adaptar la legislación existente, como el Reglamento General de Protección de Datos (GDPR) de la UE, a la supervisión de la IA en lugar de redactar nuevas leyes desde cero.

«Los buenos marcos regulatorios considerarán la seguridad, la explicabilidad, la equidad y la responsabilidad para garantizar que desarrollemos las herramientas correctas de la manera correcta. La regulación sensata también debe adoptar un enfoque proporcionado, equilibrando los daños potenciales, especialmente en áreas de alto riesgo, con oportunidades sociales».

Los recientes llamados de Microsoft para la regulación gubernamental se han centrado en el uso de tecnología de reconocimiento facial en espacios públicos, argumentando que si no se controla aumentará el riesgo de decisiones y resultados sesgados para grupos de personas que ya son discriminados.

Es poco probable que el momento de la publicación de Pichai sea una coincidencia. Los reporteros de Euractiv publicaron la semana pasada una propuesta filtrada de la Comisión Europea que promociona una prohibición de tres a cinco años de la tecnología de reconocimiento facial por parte de organizaciones públicas y privadas en espacios públicos hasta que los reguladores puedan desarrollar métodos sólidos para evaluar los riesgos de la tecnología y el riesgo. enfoques de gestión.

«Esto salvaguardaría los derechos de las personas, en particular contra cualquier posible abuso de la tecnología. Sería necesario prever algunas excepciones, en particular para las actividades en el contexto de la investigación y el desarrollo y con fines de seguridad (sujeto a una decisión emitida por un tribunal correspondiente)», escribió la Comisión.

«Por su naturaleza, tal prohibición sería una medida de gran alcance que podría obstaculizar el desarrollo y la adopción de esta tecnología. Por lo tanto, la Comisión opina que sería preferible centrarse en esta etapa en la implementación total de las disposiciones de el Reglamento General de Protección de Datos.”

VER: Guía para profesionales de TI sobre el cumplimiento del RGPD (PDF gratuito)

El documento también destaca GDPR y otras leyes de datos europeas que podrían usarse como base de leyes para regular el uso de IA. Europa quiere promover la adopción de la IA pero también asegurarse de que se utilice de una manera que «respete los valores y principios europeos», al tiempo que acepta que los principales actores de la IA son de América del Norte y Asia, donde las inversiones en IA eclipsan a las de Europa.

La propuesta destaca cinco opciones regulatorias que la Comisión Europea está considerando, incluido el etiquetado voluntario; requisitos para las autoridades públicas que utilizan el reconocimiento facial; requisitos obligatorios basados ​​en el riesgo para aplicaciones de alto riesgo, como la asistencia sanitaria y el transporte, así como la vigilancia policial predictiva; adaptar la legislación existente sobre responsabilidad y seguridad de los productos; y cuestiones de gobernanza.

Hoy, el brazo europeo de la Asociación de la Industria de la Computación y las Comunicaciones (CCIA), que representa a Amazon, Google, Facebook, Mozilla, Intel y Uber, envió una carta a la Comisión instando a «una intervención regulatoria específica en lugar de una talla única». enfoque de todos».

CCIA dijo que la acción regulatoria debe estar «basada en el riesgo y enfocarse en los tipos más sensibles de aplicaciones y sectores de IA, por ejemplo, la salud pública».

googlesundarpichaicbs.jpg

El CEO de Google, Sundar Pichai: «Existen preocupaciones reales sobre las posibles consecuencias negativas de la IA».

Imagen: CBS/YouTube

Deja un comentario