Inteligencia Artificial: ¿Necesitamos un Código Ético?

Fecha: Mar, 17/09/2019 - 17:50 Fuente: Atos

El 2018 ha sido el año de la Inteligencia Artificial, todas las empresas tecnológicas han aumentado el número de proyectos dedicados a este tema y muchos de estos proyectos son muy ambiciosos y de ámbito internacional

Inteligencia Artificial: ¿Necesitamos un Código Ético?

Fabio De Pasquale, Atos Telecom & Networks Expert
 

Imagen cortesía de Atos

La Inteligencia Artificial ha demostrado todo su potencial en diversas áreas de la ciencia y de la tecnología, como la recopilación y el análisis de datos de investigaciones médicas, misiones militares, seguridad ciudadana, misiones espaciales y otra muchas, más comunes y tangibles, como la creación de nuevas ciudades inteligentes, vehículos semi o totalmente autónomos.

El reto
La Inteligencia Artificial también puede tener aspectos negativos, si el poder de estos sistemas está mal dirigidoypudiendeser también muy peligroso.
No estamos hablando del riesgo de que robots asesinos vaguen por nuestras ciudades disparando a cualquiera, sino con usos "sutiles e igual de peligrosos" de aplicaciones ya existentes.
Por lo tanto, es necesario resaltar la importancia de tener un marco ético sólido en torno al uso de esta tecnología, dado el impacto real que ya tiene en la vida de las personas. Cuando hablamos de ética, lo hacemos en términos de transparencia, seguridad, igualdad, inclusión, privacidad y esos valores son lo que intentamos mostrar dentro de esos planes de capacitación.
Es importante que cuando se usan estos tipos de herramientas sean seguras, que los responsables de desarrollar estos sistemas basados en los datos lo hagan con criterios éticos. La ética debe ser inyectada en los algoritmos, de modo que, si se solicita una hipoteca, no se discrimine a esa persona debido a su edad, sexo u origen étnico, para quienes un algoritmo nunca debe estar sesgado por su estatus racial o social. Debido a que nadie aprende automáticamente, mucho menos un robot, debe ser alimentado con información y datos que se adhieran a los principios.

Legislación Europea
En 2018, la Comisión Europea seleccionó 52 "Inteligencias humanas" para enfrentar el desafío ético de la Inteligencia Artificial y el 18 de diciembre de 2018 publicó un borrador de un código ético que contiene numerosas indicaciones útiles para la aplicación práctica de los principios fundamentales del derecho europeo en el desarrollo de sistemas inteligentes.
Estas directrices también incluyen una lista de verificación adecuada para comprobar, desde el diseño, el cumplimiento de las recomendaciones éticas de la Comisión Europea. Sin duda, es un paso adelante en comparación con otras experiencias similares llevadas a cabo en todo el mundo, sin embargo, se mantuvo demasiado lejos de la realidad tecnológica real.

Las directrices incluidas en este borrador, de 36 páginas, resumen dos factores fundamentales a los que debe ajustarse la inteligencia artificial:
• Propósito ético: la IA debe respetar, como dijimos, los derechos humanos y las regulaciones actuales.
• Robustez técnica: la IA debe garantizar que, incluso cuando se utiliza con buenas intenciones, la falta de experiencia tecnológica en su gestión no cause daños involuntarios.

Estas pautas, además de recomendar "robustez y seguridad de los sistemas", se centran principalmente en la relación de los seres humanos con la Inteligencia Artificial: la dignidad y la libertad humana deben primar, especialmente cuando los algoritmos entran en juego.
Según la Comisión Europea, estas directrices buscan garantizar que la IA europea y la de las empresas extranjeras que ofrecen sus servicios en suelo europeo demuestren una "competitividad responsable" y no tengan la intención de "reprimir la innovación".
El texto incluye tanto su utilidad para proteger el estado de derecho como las aplicaciones más controvertidas, como el armamento autónomo o la vigilancia masiva.
Al igual que Europa se ha proclamado una referencia mundial en la protección de datos privados, obligando a las grandes empresas no pertenecientes a la UE a asumir los estándares legales europeos en este campo, el Ejecutivo europeo espera lograr un impacto similar en el campo de la ética para AI.

Conclusión
La autonomía de las personas debe prevalecer siempre sobre la autonomía artificial, por lo tanto, debe garantizarse un poder de supervisión por parte de los hombres en las máquinas, a fin de limitar las decisiones de estas últimas.

Por lo tanto, el "administrador del super-sistema"debe seguir siendo humano.

 

valorar este articulo:
Su voto: Nada

Enviar un comentario nuevo

Datos Comentario
El contenido de este campo se mantiene como privado y no se muestra públicamente.
Datos Comentario
Datos Comentario
Enviar