Los robots asesinos, ya sean producto de la intimidación o una amenaza real para el equilibrio de poder internacional, ahora tienen su propio conjunto de reglas morales. Sin embargo, es poco probable que las directrices recientemente publicadas por el Pentágono sobre el uso militar de la inteligencia artificial satisfagan a sus críticos.
El borrador de la guía fue publicado a fines de la semana pasada por la Junta de Innovación de Defensa (DIB), que el Departamento de Defensa (DoD) encargó en 2018 para desarrollar un conjunto de reglas éticas para el uso de inteligencia artificial en la guerra.
Durante los últimos 12 meses, el DIB ha estado investigando la ética y los principios de la IA con académicos, abogados, informáticos, filósofos y líderes empresariales, todos presididos por el ex director ejecutivo de Google, Eric Schmidt.
Mirar: Informe especial: Cómo las empresas pueden automatizar (Libro electrónico gratuito)
Las ideas que propongan deben alinearse con la estrategia de IA del Departamento de Defensa, publicada en 2018, que determinó que la IA debería «promover nuestros valores de manera legal y ética».
«Mantener la ventaja competitiva de AI es fundamental para nuestra seguridad nacional”, dice el nuevo documento. «El DIB recomienda que el Departamento de Defensa adopte cinco principios éticos de AI, en resumen: responsable, justo, rastreable, confiable y manejable».
Con estos cinco pilares de los principios de la IA, el documento cubre una amplia gama de temas. Enfatiza, por ejemplo, que los humanos deben ejercer un juicio «adecuado», es decir, responsabilidad, al implementar sistemas autónomos.
Equidad significa que estos sistemas deben estar libres de sesgos accidentales. Con la trazabilidad, DIB significa que las herramientas de IA también deben ser completamente transparentes, y los expertos deben tener acceso a los datos necesarios para comprender exactamente cómo funcionan.
Los sistemas autónomos deben someterse a pruebas constantes para garantizar que sean confiables. Por último, deben ser manejables, lo que significa que deben saber cómo detenerse cuando descubren que pueden causar daños no deseados.
El nuevo documento tiene no menos de 65 páginas, muy largo. Por el contrario, para regular el desarrollo de armas autónomas, el Departamento de Defensa se ha basado desde 2012 en una «directiva» de 15 páginas que establece «las consecuencias y directrices para minimizar la probabilidad de falla».
Resulta que quince páginas no son suficientes para crear un marco ético para la guerra autónoma.
El Departamento de Defensa aprendió esa lección cuando no logró llegar a un acuerdo con Google para desarrollar inteligencia artificial para el análisis de videos de drones en 2018, cuando los empleados de la compañía se pronunciaron en contra de la posibilidad de que sus trabajos pudieran usarse para matar personas.
Después de que 4000 empleados solicitaron a Google que se retirara del acuerdo y una docena de empleados abandonaron la empresa por su participación, el gigante tecnológico informó que no renovaría su contrato con el Pentágono.
La falta de confianza en las formas en que los militares podrían adoptar la tecnología civil es una de las razones por las que el Departamento de Defensa encargó nuevos estándares éticos.
“Por primera vez en la historia reciente, ni el Departamento de Defensa ni las compañías de defensa tradicionales que se asocian con él pueden controlar o mantener un acceso favorable a los avances en computación e inteligencia artificial”, dice el informe.
Es fácil ver por qué esta situación es problemática en el contexto geopolítico actual. Si bien China ha anunciado que la inteligencia artificial es una prioridad nacional, Rusia está intensificando la investigación en Times Tech City para implementar IA en el ejército, lo suficiente como para preocupar al Ministerio de Defensa.
Entonces, ¿son las nuevas pautas del Departamento de Defensa lo suficientemente estrictas como para generar confianza civil en el uso militar de la IA?
Eso podría darle un ligero impulso, dice Amanda Sharkey, profesora de informática en la Universidad de Sheffield en el Reino Unido y miembro del movimiento Stop Killer Robot. «El borrador del documento ayuda a resaltar varios riesgos», dijo a MarketingyPublicidad.es. «Pero en puntos clave, sigue siendo decepcionante».
El tema más importante, continuó, es el de la responsabilidad, y las nuevas pautas lo abordan al recomendar que «los humanos deben ejercer un grado adecuado de juicio al usar sistemas de IA».
«Suena bien», dijo. «Pero eso no refleja lo que realmente se necesita. Si una persona está supervisando un montón de armas, necesita tener suficiente tiempo e información para pensar antes de tomar una decisión. Es un control ‘significativo’, no ‘apropiado'».
Entonces, para Sharkey, «apropiado» no es lo suficientemente específico y abre la puerta a una toma de decisiones menos informada.
Mirar: Microsoft: Queremos que aprendas gratis el lenguaje de programación Python
Cualquier deficiencia en las nuevas pautas puede deberse en parte al hecho de que la IA es una tecnología nueva, un problema que el DIB reconoció en sus recomendaciones.
Por ejemplo, el documento exige pruebas y validaciones rigurosas a lo largo del ciclo de vida de los sistemas de IA para garantizar su confiabilidad. Pero también reconoce que la naturaleza misma del aprendizaje automático significa que las técnicas de verificación tradicionales son «inadecuadas, obsoletas o inadecuadas».
Para Anders Sandberg, investigador del Instituto del Futuro de la Humanidad de la Universidad de Oxford, Reino Unido, está claro que los métodos antiguos no funcionan para las nuevas tecnologías, lo que refleja el mayor desafío que enfrenta el Ministerio de Defensa al tratar de diseñar ética para la IA.
«La ética es un trabajo muy importante. Los principios solo entran en vigencia cuando se vuelven parte del ADN de la industria. Lleva tiempo», dijo a MarketingyPublicidad.es.
Sandberg no descarta por completo la idea de que las nuevas reglas podrían tener implicaciones para futuras aplicaciones de IA en la guerra. Sin embargo, duda de que los desarrolladores de repente piensen en la confiabilidad y la capacidad de administración al escribir nuevos sistemas.
Dijo que les tomó algún tiempo comenzar a darse cuenta de que pensar en la ética también era parte de su trabajo.
“El problema, por supuesto, es que cuando se trata de usar IA con fines militares, el tiempo no es algo que podamos permitirnos”, agregó.