Resultados

No hemos encontrado ningún artículo relacionado :(

BLOYGO > ¡A lo Yoigo!

Roboética: ¿ética para robots?

5 min

Tecnología y Humanidades deben ir de la mano para garantizar una IA justa, igualitaria y bondadosa


Si no queremos acabar viviendo en una comunidad parecida a la de Westworld, donde impere la ley del más fuerte y reine el caos, más nos vale tomarnos en serio la ética. Toda sociedad necesita dotarse de un sistema de normas y conductas que diferencien con claridad entre el bien y el mal, lo correcto e incorrecto y la justicia e injusticia.

La ética sólo se preocupaba hasta ahora por la conducta humana, pero a medida que las máquinas han ido adquiriendo protagonismo en la sociedad, también ha tenido que estudiar las implicaciones morales del uso de la tecnología y reflexionar acerca de los principios y límites de la inteligencia artificial.

Ética para una IA no discriminatoria

La construcción de una sociedad donde los algoritmos cada vez tienen más importancia y coexisten con los seres humanos obliga a definir ciertos límites sobre cómo usamos la inteligencia artificial y en la manera en que ésta se relaciona con nosotros.

“Si se envía un robot para asesinar a un ser humano, ¿de quién es la culpa: de la máquina, de las personas que la diseñaron, de la empresa que la diseñó, de las personas que la construyeron o de la empresa que la construyó?”. Con esta pregunta provocativa, el ingeniero Sergio A. Morello plantea la necesidad de avanzar en el estudio de la roboética en su artículo La ética para las máquinas, nuevo campo de investigación.

Las novelas de Isaac Asimov nos han hecho creer en robots humanoides capaces de tomar decisiones y que sueñan con ser seres humanos. Sin embargo, la robótica todavía no ha dotado de conciencia plena a las máquinas, así que la ética hay que exigírsela a sus creadores y dueños.

Las empresas tecnológicas han asumido que junto a su departamento de I+D debe haber otra sala destinada al comité ético. Según un informe de SAS, el 70% de las grandes empresas mundiales que utilizan inteligencia artificial forman a sus empleados en ética. El director de negocios de SAS en España, Jesús Aguilera, declaró recientemente que “hay que inyectar la ética a los algoritmos, de manera que si se solicita una hipoteca no se discrimine a esa persona por su edad, sexo o etnia”.

¿Los algoritmos de los motores de búsqueda siempre nos ofrecen los resultados más justos? ¿Aplican criterios de discriminación? Esa es la duda que pretende erradicar IBM. La empresa informática ha desarrollado un servicio para detectar posibles sesgos en la programación de la IA.

“Si una inteligencia artificial no puede explicar cómo y con qué criterios elabora sus recomendaciones, no debería utilizarse. Sólo la IA razonada, transparente y justa sobrevivirá”, afirma Marta Fernández, directora de IBM en España, Portugal, Grecia e Israel. Somos las personas, y no la tecnología, las responsables únicas de construir un futuro ético.

De las Tres leyes de la Robótica a la legislación europea

Las grandes innovaciones generan por igual expectativa, ilusión y temor. Y la robótica no es ajena a esa amalgama de sentimientos contradictorios. Por un lado, aplaudimos los avances de la robótica, pero al mismo tiempo nos preocupamos por el impacto que una legión de Peppers mejorados puedan tener sobre la economía y las relaciones sociales.

Isaac Asimov fue el primero en establecer los parámetros éticos que deberían regir la conducta de los robots. El novelista de ciencia ficción enunció por primera vez en 1942 las universales Tres leyes de la Robótica:

  1. Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe cumplir las órdenes de los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia en la medida en que ello no entre en conflicto con la Primera o la Segunda Ley.

Estas tres normas han imperado en los relatos de ciencia ficción desde mediados del siglo pasado. Mientras estos humanoides de lata eran únicamente personajes de ficción, las leyes de Asimov eran suficientes para resolver los dilemas éticos y las paradojas que entrañaban ciertos relatos. ¿Pero qué sucede cuando los robots empiezan a formar incipientemente parte de nuestra realidad? ¿Qué hacemos para controlar la IA?

Los organismos legislativos no pueden ser ajenos a la realidad futura y han empezado a elaborar normativa e informes sobre robótica para establecer un código ético de conducta. El Parlamento Europeo ha fijado “un marco de guía ético para el diseño, producción y uso de los robots” que complemente a las diferentes recomendaciones puramente legales.

La resolución de la Eurocámara recoge principios básicos como la protección de la dignidad humana, la privacidad, la libertad o la igualdad de acceso:

  1. Proteger a los humanos del daño causado por robots: la dignidad humana.
  2. Respetar el rechazo a ser cuidado por un robot.
  3. Proteger la libertad humana frente a los robots.
  4. Proteger la privacidad y el uso de datos: especialmente cuando avancen los coches autónomos, los drones, los asistentes personales o los robots de seguridad.
  5. Protección de la humanidad ante el riesgo de manipulación por parte de los robots: Especialmente en ciertos colectivos –ancianos, niños, dependientes- que puedan generar una empatía artificial.
  6. Evitar la disolución de los lazos sociales haciendo que los robots monopolicen, en un cierto sentido, las relaciones de determinados grupos.
  7. Igualdad de acceso al progreso en robótica para evitar la brecha tecnológica.
  8. Restringir el acceso a tecnologías de mejora regulando la idea del transhumanismo y la búsqueda de mejoras físicas y/o mentales.

Es innegable que la robótica y la inteligencia artificial incidirán profundamente en la vida económica, política y social de las próximas décadas. Todos interactuaremos en mayor o menor medida con todo tipo de máquinas antes de lo que imaginamos. Así que no es ninguna tontería preguntarse si el asistente del móvil nos discriminará, nos dará la respuesta más justa o atenderá a intereses contrarios a los nuestros.

Muchas preguntas e incertidumbres, pero una por encima de todas ellas: ¿qué principios éticos deberán regir a los robots? La respuesta aún no está clara, pero la Tecnología y las Humanidades deben empezar a reflexionar sobre ella.

¿TE GUSTAMOS?
¡SÍGUENOS!