Cinco formas de resolver desafíos sociales y éticos en robótica e IA

 

La robótica y la IA no solo tienen el potencial de hacer que nuestras vidas sean más cómodas, sino también de ayudarnos a resolver los importantes desafíos de la sociedad moderna. En salud, por ejemplo, pueden mejorar significativamente la detección temprana y el tratamiento de enfermedades. Los sistemas de asistencia de enfermería, en particular, podrían apoyar una atención de alta calidad y, por lo tanto, reforzar la autonomía y la calidad de vida de las personas que necesitan atención. Además, la robótica y las tecnologías de IA pueden hacerse cargo de actividades peligrosas, monótonas, repetitivas, físicamente insalubres o extenuantes de los humanos, como trabajos de inspección en minas o trabajos de limpieza en áreas contaminadas radiactivamente.

Sin embargo, al analizar estas oportunidades, no debemos olvidarnos de los desafíos éticos y sociales que quedan por resolver. Las preocupaciones éticas planteadas por la robótica y la IA dependen de sus capacidades y dominio de uso. En el siguiente segmento, describimos algunas de las 10 principales preocupaciones y desafíos éticos.

 

Parcialidad – Cuando están equipados con aprendizaje automático, la robótica y los sistemas de inteligencia artificial a menudo pueden tener un sesgo en la toma de decisiones. Cuando se les capacita en un conjunto de imágenes étnicamente sesgadas, por ejemplo, es más probable que no reconozcan ciertos grupos étnicos como humanos, debido al color de la piel o la ropa, lo que pone a dichos grupos en mayor riesgo.

Engaño – Los robots humanoides o zoomorfos presentan el riesgo, especialmente para usuarios ingenuos o vulnerables, de apego emocional o dependencia (dado que es relativamente fácil diseñar un robot para que se comporte como si tuviera sentimientos). El 4º Principio de robótica de EPSRC establece: “Los robots son artefactos fabricados. No deben diseñarse de manera engañosa para explotar a los usuarios vulnerables; en cambio, su naturaleza de máquina debería ser transparente «.

Empleo La introducción de robots e IA podría desplazar a ciertas clases de trabajadores, por ejemplo, taxistas y operadores de máquinas de canteras.

Opacidad – Cuando las decisiones no son transparentes o están abiertas al escrutinio, existe la posibilidad de que sean injustas (injustas) y no estén sujetas a corrección. La introducción del Reglamento General de Protección de Datos (GDPR) trae consigo un «derecho a la explicación», motivado por el problema de la opacidad.

La seguridad – La robótica y la IA pueden tener un impacto positivo y negativo en la seguridad. La motivación original para la investigación en vehículos autónomos era mejorar la seguridad vial al reducir o eliminar los errores humanos como causa de accidentes. Pero como lo han demostrado los accidentes recientes con AV en los EE. UU., Dicha tecnología también puede causar muertes.

Supervisión Los robots y los sistemas de inteligencia artificial también presentan desafíos para operar en entornos abiertos donde es difícil monitorear y evaluar su comportamiento.

Privacidad La robótica y los sistemas autónomos pueden contener y ser capaces de proporcionar a terceros datos que podrían violar el derecho a la privacidad de un individuo. Por ejemplo, es probable que un AV sepa dónde viajó el propietario u ocupante, y esto podría permitir que un acosador los rastree o muestre que estuvieron involucrados en actividades delictivas.

Aquí, recomendamos cinco formas de resolver estos desafíos.

1. Cumplimiento de los principios de la Unión Europea.

Al desarrollar y utilizar robots y sistemas de IA, se deben observar los principios éticos generales. Por lo tanto, debemos asegurarnos de que el despliegue de robots y sistemas de IA salvaguarde los principios de los derechos humanos, incluida la protección de datos y la privacidad, así como los principios relacionados de dignidad humana, libertad humana y autonomía. Recomendamos que los sistemas de IA, en la medida de lo técnicamente posible, se diseñen de manera transparente y que las decisiones tomadas por los sistemas de IA sean comprensibles («IA explicable»). Los expertos están discutiendo actualmente la implementación de una «Caja negra ética» y, alternativamente, el enfoque de «Explicaciones contrafactuales». Además, deben tenerse en cuenta valores y principios generales de mayor alcance, como la justicia y la equidad, la diversidad y la inclusión, la solidaridad y la protección de las personas vulnerables en el curso del desarrollo y despliegue de nuevas tecnologías.

2. Seguridad y protección de las tecnologías.

Debemos asegurarnos de que la robótica y las tecnologías de IA sean seguras de usar y cumplan con los estándares generales de desarrollo. Las preguntas críticas en este contexto son si es necesario adaptar las reglas existentes y si se necesitan nuevas medidas. La seguridad de las nuevas tecnologías incluye tanto la seguridad de la máquina como la seguridad de TI, así como la integración de estos aspectos. También se debe prestar atención para permitir un alto sentido subjetivo de seguridad en el uso de robots y sistemas de inteligencia artificial.

3. Supervisión humana

Aunque los robots y los sistemas de inteligencia artificial se están volviendo cada vez más inteligentes, su estado moral aún no está claro. En aplicaciones prácticas, surge la pregunta de si los robots y los sistemas autónomos de inteligencia artificial pueden ser agentes morales (en un sentido eficiente, no filosófico) capaces de tomar decisiones éticas por sí mismos. Este aspecto se discute, por ejemplo, en relación con vehículos autónomos, ya que podrían estar involucrados en la circunstancia en la que tienen que tomar decisiones éticas. Dichas decisiones pueden ir desde romper las leyes para evitar un accidente (por ejemplo, ignorar una señal de alto para evitar una colisión trasera) hasta decidir qué vida vale más la pena proteger en caso de un choque inevitable (por ejemplo, la de los pasajeros u otros usuarios de la carretera).

En vista de una mayor autonomía en IA y sistemas robóticos, es necesario garantizar la supervisión humana en cada situación y definir un marco moral y legal claro que describa claramente las responsabilidades de todas las partes involucradas (por ejemplo, desarrolladores, fabricantes, operadores, usuarios , clientes, etc.). Los algoritmos y las precauciones computacionales para el comportamiento ético deben integrarse directamente en la arquitectura y el diseño de la máquina para minimizar posibles violaciones éticas y comportamiento amoral en máquinas autónomas.

4. Consideración de las consecuencias sociales y ecológicas.

La robótica y las tecnologías de IA deben alinearse con las necesidades humanas, respetar el comportamiento humano y la diversidad social y no deben imponer ninguna adaptación inhumana o inhumana de los humanos a la tecnología. Debe descartarse que las tecnologías conducen a un trato parcial o discriminatorio de las personas. Es crucial evaluar el impacto económico y laboral potencial de las nuevas tecnologías en una etapa temprana y desarrollar tecnologías que apoyen la actividad económica sostenible que sea económica y ecológicamente beneficiosa.

5. Iniciando el debate público sobre Robótica e IA

Debemos asegurarnos de que los tomadores de decisiones políticas ya reflejen cuestiones sociales fundamentales en relación con la robótica y la inteligencia artificial, que pueden no ser relevantes de inmediato, pero con las que nos enfrentaremos en el mediano plazo. Los expertos de diversas disciplinas, grupos de interés y el público en general deben participar en un meta-nivel en un discurso integral e interactivo sobre temas fundamentales. Incluye, por ejemplo, un debate fundamental sobre cómo las tecnologías de IA pueden influir en nuestro sistema democrático y cómo podemos defender la democracia y el estado de derecho a largo plazo. También debemos analizar cómo el trabajo, remunerado y no remunerado, se distribuye equitativamente entre humanos y máquinas en el futuro.

En resumen, la robótica y la IA sin duda desempeñarán un papel esencial para abordar estos problemas. Sin embargo, primero tenemos que aclarar qué posiciones queremos asignar a estas tecnologías.

Leave a Comment!