If you would like a member of the Rhisco team to get in touch, please send us your details and we will contact you directly.
*By entering your details you agree to our Privacy policy.
Los modelos de inteligencia artificial (IA), incluyendo tecnologías y analítica de datos, pueden originar potenciales dilemas éticos en tanto que pueden producir un bien y a la vez pueden generar un mal dependiendo de una serie de circunstancias. Un dilema ético, típicamente, está en el contexto del ser humano por el impacto, directo o indirecto, que puede tener una acción. El impacto es “bueno” si mejora en alguna dimensión la vida del ser humano, o “malo” si la perjudica en otra dimensión.
El uso de IA puede generar enormes avances en ciencia, beneficios económicos por eficiencias en tareas repetitivas o con grandes volúmenes de información, nuevos modelos de negocio, o mayor exactitud en tareas complejas, entre muchos otros. En este sentido genera mejoras evidentes en la vida de seres humanos.
Por otro lado, el uso de modelos de IA, al igual que el uso de otras tecnologías, en casos específicos puede tener en sí mismo un propósito bueno. Sin embargo, el tener un propósito bueno puede no ser suficiente si la implementación de la tecnología tiene consecuencias malas no intencionales.
En este contexto, la mayoría de los dilemas éticos se refieren a la afectación, típicamente no intencionada, de los derechos fundamentales del ser humano como consecuencia del uso de tecnologías de IA. Los derechos fundamentales impactados y sus potenciales afectaciones son:
Este tema, además de un dilema ético, involucra en algunos casos también temas legales o de violaciones a regulaciones. Ejemplos que originan dilemas éticos son 1) uso de datos personales para entrenar modelos de IA, sin conocimiento y autorización de los individuos dueños de los datos personales, y 2) monitoreo digital de comportamiento de personas, sin su conocimiento y/o autorización de las personas monitoreadas.
Como empresas creadoras de IA podemos prevenir violentar este derecho a través de comunicar de forma sencilla a la población relevante (usuarios, clientes, público en general) qué información es colectada y el propósito de uso de ésta (sean datos personales otros datos) y dar la opción de ser excluido.
Este derecho puede ser violentado, por ejemplo, el entrenar modelos de IA con datos que tienen sesgos, lo que potencialmente origina resultados discriminatorios al aplicar el modelo entrenado. Las decisiones de un modelo de IA deben poder ser explicadas asegurando la equidad de resultados basados en modelos entrenados sin sesgos, o al menos buscando prevenir sesgos en contra de las poblaciones que se quiere proteger.
Las empresas que construimos modelos de IA debemos asegurar que se hace una revisión de los datos para identificar sesgos potenciales en los mismos, con pruebas de discriminación de poblaciones; para ello, debemos identificar claramente cuáles poblaciones buscamos “proteger”. Adicionalmente, asegurar que la información anonimizada usada para entrenamiento de modelos de IA no permita re-identificar a una persona específica.
La dignidad humana es el derecho a ser valorado y respetado como sujeto individual, a tener una personalidad y opinión propia. Es cuestionable moralmente el uso de modelos de IA que influyan en la toma de decisiones de vida (o que impacten la dignidad de una persona) que no consideren elementos morales en la construcción del modelo de IA. En cuestiones específicas que puedan impactar la dignidad de alguien se debe buscar que la decisión última sea de un ser humano.
Este derecho a ser juzgado es un derecho básico del ser humano y puede ser violentado, por ejemplo, cuando tecnologías de IA pretenden asignar la condena sin juicio a una persona usando decisiones basadas en modelos de perfilamiento o estadísticos.
Como consumidores debemos estar claramente informados cuando estamos ante el uso de modelos de IA que, por ejemplo, toman decisiones o buscan influir en nuestras decisiones de compra o cuando se colectan nuestros datos para propósitos de entrenamiento de modelos. Queremos que haya transparencia en el uso y propósito de los modelos, entender qué datos se colectan, cómo se usan, qué resultados se generan. Quizá incluso como consumidores quisiéramos tener derecho a saber cómo se llegan a los resultados con el uso de los modelos de IA y que nos puedan ser explicados en términos simples.
El uso de modelos de IA en la elección y provisión de asistencia y seguridad social o en la asignación o gestión de recursos públicos puede tener beneficios, pero también puede ser perjudicial para un grupo de ciudadanos. Es crucial que los servidores públicos que los usen entienda a fondo el modelo de IA, consideren potenciales impacto adversos de su uso y no solo persigan temas de eficiencia operativa o de control de gasto.
Los modelos de IA tienen un potencial enorme de beneficiar al ser humano en lo individual y en lo colectivo, pero hay que asegurar que participamos activamente en la definición, creación y opinión crítica del propósito del modelo de IA, de qué datos usa y cómo, de cómo genera resultados, cómo se usa para tomar decisiones y de cómo se comunica. Es una tarea de todos. Todos los involucrados necesitamos entender, opinar, criticar, cuestionar y fomentar la transparencia y explicabilidad de modelos de IA. Esto te incluye a ti, ya sea como creador de modelos, usuario de productos y servicios con IA, contribuidor pasivo/activo de datos que alimentan modelos de IA, o creador de política pública.
Las empresas que construimos IA necesitamos participar en acciones afirmativas soportadas por un tono ético que venga del equipo Directivo, facilitando información, entrenamiento técnico y una cultura de valores, así como estableciendo procesos de gobierno alrededor del diseño del modelo.
¿Y tú qué opinas? Me encantará leer tu comentario.
Artificial intelligence (AI) models, including technologies and data analytics, can lead to potential ethical dilemmas while they can produce good while generating evil depending on a number of circumstances. An ethical dilemma, typically, is in the context of the human being by the direct or indirect impact that an action can have. The impact is "good" if it improves human life in some dimension, or "bad" if it harms it in another dimension.
The use of AI can generate huge advances in science, economic benefits for efficiencies in repetitive tasks or with large volumes of information, new business models, or greater accuracy in complex tasks, among many others. In this sense it generates obvious improvements in the lives of human beings.
On the other hand, the use of AI models, like the use of other technologies, in specific cases can have a good purpose in itself. However, having a good purpose may not be enough if the implementation of the technology has unintended bad consequences.
In this context, most ethical dilemmas concern the typically unintended impact of human fundamental rights as a result of the use of AI technologies. The fundamental rights impacted, and their potential impacts are:
This topic, in addition to an ethical dilemma, also involves in some cases legal issues or violations of regulations. Examples that give rise to ethical dilemmas are 1) use of personal data to train AI models, without the knowledge and authorisation of individuals who own personal data, and 2) digital monitoring of people's behaviour, without their knowledge and/or authorisation of monitored persons.
As AI-processing companies we can prevent the violate of this right by easily communicating to the relevant population (users, customers, the general public) what information is collected and the purpose of using it (whether personal data other data) and giving the option to be excluded.
This right can be violated, for example, by training AI models with data that has biases, potentially leading to discriminatory results when applying the trained model. Decisions in an AI model should be able to be explained by ensuring the fairness of results based on bias-free trained models, or at least seeking to prevent bias against the populations to be protected.
Companies that build AI models must ensure that data is reviewed to identify potential biases in it, with evidence of population discrimination; to do this, we must clearly identify which populations we seek to "protect." Additionally, ensuring that the anonymised information used for AI model training does not allow a specific person to be re-identified.
Human dignity is the right to be valued and respected as an individual subject, to have a personality and opinion of its own. The use of AI models that influence life decision-making (or impact a person's dignity) that they do not consider moral elements in building the AI model is morally questionable. Specific issues that may impact someone's dignity should seek to make the ultimate decision of a human being.
This right to be judged is a basic right of the human being and can be violated, for example, when AI technologies seek to assign judgment without judgment to a person using decisions based on profiling or statistical models.
As consumers we must be clearly informed when we are faced with the use of AI models that, for example, make decisions or seek to influence our purchasing decisions or when our data is collected for model training purposes. We want there to be transparency in the use and purpose of models, to understand what data is collected, how it is used, what results are generated. Perhaps even as consumers we would like to have the right to know how the results are achieved with the use of AI models and that can be explained to us in simple terms.
The use of AI models in the choice and provision of social assistance and security or in the allocation or management of public resources can have benefits, but it can also be detrimental to a group of citizens. It is crucial that public servants using them fully understand the AI model, consider potential adverse impacts of their use, and not just pursue issues of operational efficiency or spending control.
AI models have enormous potential to benefit humans individually and collectively, but we need to ensure that we actively participate in the definition, creation, and critical opinion of the purpose of the AI model, what data it uses, and how, how it generates results, how it is used to make decisions, and how it communicates. It is everybody's job. Everyone involved needs to understand, opinion, criticise, question and promote the transparency and explainability of AI models. This includes you, whether as a model builder, AI product and service user, passive contributor/data asset that feeds AI models, or a public policy creator.
The companies that build AI need to participate in affirmative actions supported by an ethical tone that comes from the Management team, providing information, technical training and a culture of values, as well as establishing governance processes around the design of the model.
What do you think? I'd love to read your comment.