Silver economy, la ola que viene

Hoy en día, es adecuado preguntarse qué papel debe jugar la ética en el mundo de la inteligencia artificial (IA), cómo deben comportarse las máquinas que hemos creado y qué responsabilidades tienen los humanos que las diseñan y utilizan. 

En relación con el diseño de la IA, vale la pena cuestionarse: 

¿Se está diseñando la IA de forma responsable? Es decir, ¿se busca evitar sesgos al crear algoritmos que perpetúen desigualdades? ¿Se cuida que los diseños tengan plena transparencia y que exista un manejo adecuado de los datos personales, los consentimientos y la seguridad? 

 

¿Se pone la eficacia por encima de cualquier otra consideración?   

Sin duda la IA facilitará muchas tareas, pero sus usos pueden tener consecuencias no deseadas. Por ejemplo: el reconocimiento facial por parte de los Estados con propósitos de control; las armas autónomas que eligen a quién atacar; los algoritmos que manipulan preferencias políticas o amplifican la desinformación; los deepfakes y la suplantación de identidad; o los sistemas de diagnóstico médico y de automovilidad que pueden cometer errores, entre tantos otros. 

El mundo debe establecer salvaguardas para asegurar un uso ético de la IA, sin afectar el incentivo para la innovación. 

Existe una iniciativa llamada RAI – Responsible AI Initiatives, que plantea que la IA debe desarrollarse bajo principios éticos como los siguientes: 

– Justicia y no discriminación. Evitar sesgos algorítmicos y garantizar equidad en los resultados. 

– Transparencia y explicabilidad. Los sistemas deben ser comprensibles: se debe poder rastrear cómo y por qué una IA llegó a una decisión. 

– Responsabilidad. Las personas o instituciones que diseñan o aplican IA deben responder por los impactos que generan. 

– Privacidad y protección de datos. Uso responsable y consentimiento informado en el tratamiento de información personal. 

– Seguridad y beneficencia. Prevenir daños y orientar los sistemas hacia el bienestar humano. 

Parece que, hoy en día, la adopción de principios éticos recae más en las decisiones individuales de las empresas desarrolladoras (Google, Meta, OpenAI, Anthropic) que en la imposición de leyes o marcos regulatorios, que aún son incipientes. 

Estados Unidos y China, como líderes en el desarrollo de IA, probablemente seguirán priorizando la innovación a toda costa; y los límites morales, quizá, no provendrán de una regulación explícita, sino de la autorregulación o del interés del Estado. 

“Si la técnica no se guía por una ética fuerte, termina dominando al hombre.” 


Por: Octaviano Couttolenc

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top