La industria de la tecnología está entrando en una nueva era, en la que la innovación debe hacerse de manera responsable. «Es muy novedoso», dice Michael Kearns, profesor de la Universidad de Pensilvania que se especializa en aprendizaje automático e IA. «Hasta la fecha, la industria de la tecnología ha sido en gran medida amoral (pero no inmoral). Ahora estamos viendo la necesidad de considerar deliberadamente cuestiones éticas a lo largo de todo el proceso de desarrollo tecnológico. Creo que esta es una nueva era».
La tecnología de inteligencia artificial ahora se usa para informar decisiones de alto impacto, que van desde fallos judiciales hasta procesos de reclutamiento, pasando por la elaboración de perfiles de presuntos delincuentes o la asignación de beneficios sociales. Dichos algoritmos deberían poder tomar decisiones más rápido y mejor, suponiendo que estén bien construidos. Pero cada vez más el mundo se da cuenta de que los conjuntos de datos utilizados para entrenar dichos sistemas a menudo incluyen sesgos raciales, de género o ideológicos que, como dice el dicho «entra basura, sale basura», conducen a decisiones injustas y discriminatorias. Los desarrolladores alguna vez pudieron haber creído que su código era neutral o imparcial, pero los ejemplos del mundo real muestran que el uso de la IA, ya sea por el código, los datos utilizados para informarlo o incluso la idea misma de la aplicación, puede causar problemas reales. problemas del mundo.
Desde el motor de reclutamiento de Amazon que penaliza los currículums que incluyen la palabra «mujeres», hasta la policía del Reino Unido que perfila a los presuntos delincuentes en función de criterios indirectamente vinculados a su origen racial, las deficiencias de los algoritmos han dado a los grupos de derechos humanos motivos suficientes para preocuparse. Lo que es más: el sesgo algorítmico es solo un lado del problema: la imagen de la ‘ética de la IA’ es, de hecho, multifacética.
Para mitigar las consecuencias no deseadas de los sistemas de IA, los gobiernos de todo el mundo han estado trabajando en borradores, directrices y marcos diseñados para informar a los desarrolladores y ayudarlos a crear algoritmos que respeten los derechos humanos.
VER: Cómo implementar la IA y el aprendizaje automático (Informe especial de MarketingyPublicidad.es) | Descarga el informe en PDF (República Tecnológica)
La UE lanzó recientemente una estrategia para la IA que «pone a las personas primero» con «tecnología confiable». Los científicos chinos publicaron el año pasado los Principios de IA de Beijing, que escribieron en colaboración con el gobierno y que se centran en el respeto de los derechos humanos.
Este año en los EE. UU., se propusieron diez principios para generar confianza pública en la IA; y solo unos meses antes, el Departamento de Defensa publicó un borrador de directrices sobre el despliegue de IA en la guerra, que insistía en salvaguardar varios principios que van desde la responsabilidad hasta la confiabilidad. La Oficina de IA del Reino Unido detalla de manera similar los principios que debe seguir la IA, y el gobierno también publicó un Marco de ética de datos con pautas sobre cómo usar los datos para la IA.
Hasta la fecha, la mayoría de las directrices han recibido una respuesta positiva, aunque mesurada, de los expertos, quienes en la mayoría de los casos han subrayado que las normas propuestas carecían de sustancia. De hecho, un informe reciente de un comité independiente en el Reino Unido encontró que existe una «necesidad urgente» de orientación práctica y regulación aplicable por parte del gobierno cuando se trata de implementar IA en el sector público.
A pesar de la avalancha de publicaciones, Christian de Vartavan, un experto en IA del Grupo Parlamentario de Todos los Partidos (APPG) del Reino Unido, le dice a MarketingyPublicidad.es que los gobiernos están luchando por mantenerse al tanto del tema: «Eso es porque todavía es muy temprano, y el la tecnología se desarrolla tan rápido que siempre estamos atrasados. Siempre hay un nuevo descubrimiento y es imposible mantenerse al día».
Lo que hacen prácticamente todos los marcos lanzados hasta ahora es señalar los valores generales que los desarrolladores deben tener en cuenta al programar un sistema de IA. A menudo basados en los derechos humanos, estos valores suelen incluir la equidad y la ausencia de discriminación, la transparencia en la toma de decisiones del algoritmo y la responsabilidad del creador humano por su invención.
De manera crucial, la mayoría de las pautas también insisten en que se reflexione sobre las implicaciones éticas de la tecnología desde la primera etapa de conceptualización de una nueva herramienta, y durante todo el camino a través de su implementación y comercialización.
Este principio de ‘ética por diseño’ va de la mano con el de responsabilidad y puede traducirse, aproximadamente, como: ‘que los codificadores estén advertidos’. En otras palabras, ahora depende de los desarrolladores y sus equipos asegurarse de que su programa no perjudique a los usuarios. Y la única forma de asegurarse de que no sea así es hacer que la IA sea ética desde el primer día.
El problema con el concepto de ética por diseño es que la tecnología no fue diseñada necesariamente para la ética. «Esto claramente tiene buenas intenciones, pero probablemente no sea realista», dice Ben Zhao, profesor de ciencias de la computación en la Universidad de Chicago. «Si bien algunos factores como el sesgo pueden considerarse en niveles más bajos de diseño, gran parte de la IA es éticamente agnóstica».
Las grandes empresas tecnológicas se están dando cuenta del problema e invierten tiempo y dinero en la ética de la IA. El CEO de Google, Sundar Pichai, ha hablado sobre el compromiso de la empresa con la IA ética y el gigante de las búsquedas ha publicado una herramienta de código abierto para probar la imparcialidad de la IA. Privacy Sandbox de la empresa es una tecnología web abierta que permite a los anunciantes mostrar anuncios dirigidos sin tener acceso a los datos personales de los usuarios.
Google incluso intentó crear un comité de ética, llamado Consejo Asesor Externo de Tecnología Avanzada (ATEAC), fundado el año pasado para debatir las implicaciones éticas de la IA. Sin embargo, a pesar de la buena voluntad de la empresa, ATEAC se cerró solo unas semanas después de su lanzamiento.
Pichai no es el único que aboga por una mayor ética: la mayoría de los gigantes tecnológicos, de hecho, se han unido a la fiesta. Apple, Microsoft, Facebook, Amazon, por nombrar solo algunos, han garantizado de una forma u otra que respetarán los derechos humanos al implementar sistemas de IA.
La gran tecnología podría llegar un poco tarde, según algunos expertos. «La tendencia actual de las corporaciones de Silicon Valley que deciden empoderar a los dueños de la ética se remonta a una serie de crisis que han enredado a la industria en los últimos años», señalan los investigadores de Data & Society en un artículo sobre «lógicas corporativas».
El fracaso del Proyecto Maven de Google es un ejemplo de las complejidades involucradas. Hace dos años, el motor de búsqueda consideró vender software de inteligencia artificial para mejorar el análisis de video de drones para el Departamento de Defensa de EE. UU. Las conversaciones llevaron rápidamente a que 4.000 empleados solicitaran a Google que abandonara el trato, y una docena de empleados se retiraron porque se oponían a que su trabajo se usara de esa manera.
Como resultado, Google informó que no renovaría su contrato con el Pentágono y publicó un conjunto de principios que establece que no diseñaría ni implementaría inteligencia artificial para armas o cualquier otra tecnología cuyo propósito fuera dañar a las personas.
Pero Ben Zhao, de la Universidad de Chicago, cree que también deberíamos reducir un poco la industria tecnológica. «Ciertamente ha parecido que las grandes tecnológicas han estado arreglando el desorden ético que han creado después de que se ha hecho el daño», admitió, «pero no creo que el daño sea siempre intencional. Más bien, se debe a la falta de conciencia de los riesgos potenciales involucrados en la tecnología implementada a escalas que nunca antes habíamos visto».
Podría decirse que Google podría haber previsto las consecuencias no deseadas de vender un sistema de IA al Pentágono. Pero el programador promedio, que diseña, digamos, un algoritmo de reconocimiento de objetos, no está capacitado para pensar en todos los usos indebidos potenciales a los que podría conducir su tecnología, en caso de que la herramienta caiga en manos malintencionadas.
Anticiparse a tales consecuencias y asumir la responsabilidad por ellas es un requisito bastante novedoso para la mayoría de la industria. Zhao insiste en que el concepto es «bastante nuevo» en Silicon Valley, y que la ética rara vez ha sido un enfoque en el pasado.
No es el único que piensa así. «Piense en las personas que están detrás de los nuevos sistemas de inteligencia artificial. Son técnicos, codificadores, muchos de ellos no tienen experiencia en filosofía», dijo De Vartavan. Aunque la mayoría de los desarrolladores están interesados en programar sistemas para el bien común, es probable que no tengan capacitación ni experiencia relevantes cuando se trata de incorporar la ética en su trabajo.
Quizás como resultado, las empresas de tecnología se han presentado activamente para pedir a los organismos públicos que tomen medidas y proporcionen pautas más estrictas en el campo de la ética. Sundar Pichai insistió en que las normas gubernamentales sobre IA deberían complementar los principios publicados por las empresas; mientras que el presidente de Microsoft, Brad Smith, ha pedido repetidamente leyes para regular la tecnología de reconocimiento facial.
La elaboración de leyes sigue siendo un oficio delicado, y equilibrar la necesidad de normas con el riesgo de detener la innovación es una tarea espinosa. La Casa Blanca, por su parte, ha dejado clara la posición del gobierno de EE. UU.: la administración Trump considera preferibles las reglas «suaves» que no «obstaculicen innecesariamente la innovación de la IA».
Michael Kearns de la Universidad de Pensilvania también se inclina hacia «una combinación de regulación algorítmica y autodisciplina de la industria».
VER: 7 áreas de negocio maduras para un impulso de inteligencia artificial
De Vartavan argumenta que las empresas deben ser más claras sobre las decisiones que toman con su código.
«En lo que el gobierno debería insistir es en que las empresas comiencen pensando y definiendo el tipo de valores y opciones que quieren incluir en sus algoritmos, y luego expliquen exactamente cuáles son». A partir de ahí, los usuarios podrán tomar una decisión informada sobre si usar o no la herramienta, dice.
De Vartavan confía en que los desarrolladores de IA están en camino de comenzar a diseñar la ética en sus inventos «desde cero». La industria de la tecnología, al parecer, está comenzando lentamente a darse cuenta de que no existe en el vacío; y que sus vínculos inextricables con la filosofía y la moral no pueden evitarse.
De hecho, a principios de este año, IBM y Microsoft se unieron a un tercer jugador inesperado en un llamado a la IA ética. Nada menos que el presidente de la Academia Pontificia para la Vida, el arzobispo Vincenzo Paglia, agregó su firma al final del documento, pidiendo una tecnología centrada en el ser humano y una visión «algor-ética» en toda la industria.
Rara vez la metafísica de la tecnología ha sido más real. Y a medida que la IA gana cada vez más importancia en nuestra vida cotidiana, parece cada vez más que la industria de la tecnología se está embarcando en un nuevo capítulo, uno en el que un título en ingeniería informática combina bien con un libro de texto de filosofía.