La Inteligencia Artificial (IA) ha traído consigo diversos beneficios que van desde facilitar tareas, conectar personas mediante redes sociales e incluso llega a ser un suplemento de los humanos en actividades riesgosas. Sin embargo, siempre está a la mira de dilemas éticos, entre ellos el saber si la IA se suma a las desigualdades y afecta grupos marginados, lo cual responde la Unesco.
Estos dilemas éticos en la IA surgen porque esta corre el riesgo de reproducir los prejuicios y discriminación del mundo real. Es decir, en sí la inteligencia artificial no es “mala” sino que se vuelve un reflejo de quienes la usan. Por ello, siempre debe analizarse bajo una brújula ética que evite amenazar los derechos humanos y las libertades de grupos marginados.
También lee: Trabajadores que han sido sustituidos por la inteligencia artificial
¿La IA se suma a las desigualdades y afecta a grupos marginados?
De acuerdo con la Unesco (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura) la respuesta no puede generalizarse, ya que la IA está en riesgo de reproducir los prejuicios y discriminación de quien la usa.
Sin embargo, para evitar que la IA perpetúe las desigualdades, realizó una recomendación que idealmente deberían seguir todos los gobiernos. Esta se basa en los siguientes principios básicos que establecen un enfoque ético centrado en los derechos humanos:
Proporcionalidad e inocuidad
El uso de la inteligencia artificial no debe ser más allá de lo necesario para alcanzar un objetivo legítimo. Y, antes de usarse se tienen que evaluar los riesgos para prevenir los daños que puedan derivarse de usos ilegítimos.
Seguridad y protección al usar la IA
Al utilizar la inteligencia artificial se pueden generar daños no deseados como riesgos a la seguridad o ataques a la protección de datos personales, los cuales deberían ser evitados y tomados a consideración.
Estos tienen que evitarse porque la privacidad es parte del derecho a la intimidad, así que quienes usan la inteligencia artificial deben establecer marcos adecuados de protección de datos.
Gobernanza y colaboración adaptativas y de múltiples partes interesadas
Como la IA trabaja con datos debe respetar el derecho internacional y la soberanía nacional, es decir las leyes de protección de datos que rigen en el país. Con ello, lograrían un enfoque inclusivo de gobernanza.
El papel de la IA en cuanto la responsabilidad y rendición de cuentas
Otra de las recomendaciones de la Unesco para que la IA no se sume a las desigualdades es que tenga sistemas auditables. Además, que los gobiernos sean capaces de crear mecanismos de supervisión, evaluación de impacto y auditorías; todo ello con la finalidad de evitar conflictos en cuanto a los derechos humanos y amenazas al bienestar medioambiental.
Asimismo, propone que su uso sea transparente y apegado al contexto social donde se utiliza para evitar tensiones entre otros principios como la privacidad, seguridad y protección.
La IA siempre debe estar supervisada por un humano
Aunque la IA puede ser útil sin personas que la supervisen es necesario tener a alguien al que le atribuyan, y se haga cargo de, la responsabilidad ética y jurídica, estos pueden ser personas físicas o entidades jurídicas existentes.
Sostenibilidad
La tecnología de IA debe evaluarse en función de su impacto en la sostenibilidad y cumplimiento de los Objetivos de Desarrollo Sostenible (ODS). Los ODS son un llamamiento universal de la ONU que buscan equilibrar la sostenibilidad social, económica y ambiental.
Equidad y no discriminación
Los entes implicados en la IA deben promover la justicia social, salvaguardar la equidad y luchar contra todo tipo de discriminación. Todo ello mediante un enfoque inclusivo que garantice que los beneficios de la inteligencia artificial sean accesibles para todos.
Al seguir estas recomendaciones, se evitará que la IA perpetúe las desigualdades sociales y afecte a grupos marginados. Por lo que la Unesco realiza un llamado para que los gobiernos se sumen a cumplirlas y crear políticas públicas en pro de la igualdad al utilizar la inteligencia artificial.