Según la inteligencia artificial (IA) y el aprendizaje automático van adquiriendo auge, el número de organismos públicos que se plantean o comienzan a utilizarlos se ha incrementado de forma considerable, ya que es una herramienta que ayuda a una mejor toma de decisiones. Los gobiernos, en su día a día, toman innumerables decisiones, por lo que usar un algoritmo para apoyar el proceso de toma de decisiones tiene bastante sentido. Con ello, se puede garantizar la coherencia, eficacia y eliminación de errores humanos y sesgos (ojo con las generalizaciones, aún recuerdo la mítica película «juegos de guerra» del año 1983).

Inteligencia Artificial política

Además, la pandemia del COVID-19 ha obligado a incrementar la rapidez de este proceso. Como ejemplo, el surgimiento de infinidad de chatbots que apoyaban o informaban en todo el proceso de atención a enfermos del coronavirus. La analítica se ha convertido en una herramienta esencial para afrontar esta situación sin precedentes para nuestra generación y la cual cambia de formas inadvertidas e incluso impredecibles. Algunas de las decisiones basadas en la analítica van a repercutir de formas notables y directas en nuestras vidas cotidianas, lo terrible de esta situación es que no somos conscientes de ello. Por ejemplo, los algoritmos se pueden usar para identificar e interrogar a determinadas personas en lugares como Reino Unido; también están los algoritmos para la detección de fraudes. Hace poco el gobierno de España anunciaba su especial «minority report» contra el fraude fiscal.

El uso de algoritmos permite a los gobiernos actuar de forma mas eficiente, con mejores resultados y costos bajos. Un ejemplo del beneficio de aplicar algoritmos es el patrón de evasiones fiscales, usado por gran cantidad de países, y aquellos que pueden predecir la propagación de enfermedades infecciosas, así como los que tamizan datos de sanidad para priorizar casos de asistencia y apoyo a la infancia, por solo mencionar algunos.

Es fundamental que haya total transparencia y responsabilidad (por ejemplo, el Gobierno de Colombia tiene un registro de algoritmos empleados en sus servicios públicos) a la hora de desarrollar estos algoritmos, sobre todo porque al final, es la ciudadanía la destinataria (para bien y para mal) de las decisiones de las «máquinas».

Durante las últimas décadas, ha habido advertencias constantes de que la tecnología amenaza con superar la capacidad de nuestra civilización para adaptarse y contenerla, tema muy ligado a las ambiciones y al poder de quien la ejerce

Tecnología: ¿Victima o arma del Estado?

Los organismos que utilicen la IA para obtener estos beneficios también se enfrentarán a importantes cuestiones sobre el diseño adecuado de los algoritmos y las interfaces de usuario, el alcance respectivo de la toma de decisiones humana y de la máquina, los límites entre las acciones públicas y la contratación privada, su propia capacidad de aprender con el tiempo utilizando la IA, y si el uso de la IA está incluso permitido y/o es ético.

Todos estos puntos se tratan de cuestiones importantes para el debate público y la investigación académica. Sin embargo, se sabe muy poco sobre el uso actual de los sistemas de IA por parte de los organismos, más allá de algunos ejemplos llamativos o descripciones superficiales. Además, incluso en medio del creciente debate público y académico sobre cómo la sociedad podría regular el uso de la IA por parte del gobierno, se ha prestado poca atención a cómo las agencias adquieren estas herramientas en primer lugar o supervisan su uso. Que sumado a los constantes casos y ejemplo de espionaje, control y monitorización de la ciudadanía, asustan el alcance de la tecnología aplicado a nuestras vidas.

Máquinas que toman decisiones por nuestros gobernantes y funcionarios, sin ser conscientes aún de los peligros que ello representa.

Es importante reconocer que los algoritmos pueden ser susceptibles de algunos fallos muy significativos:

-En primer lugar, los algoritmos pueden ser tendenciosos, es decir, dependiendo del diseño del algoritmo y de la naturaleza y calidad de los datos de entrada, los algoritmos pueden perjudicar sistemáticamente a ciertos tipos de personas de forma no intencionada.

-En segundo lugar, los algoritmos pueden utilizarse en el contexto equivocado. Imponer una decisión algorítmica única en entornos intrínsecamente complejos o con insuficientes controles humanos puede suponer un riesgo mucho mayor de decisiones sesgadas, inexactas o parciales. Este es el caso del ejemplo de los niveles A: Calcular las calificaciones de los exámenes a partir de datos agregados sobre estudiantes anteriores nunca podría haber sido un sustituto adecuado de la evaluación de los esfuerzos individuales de los estudiantes, por muy sofisticado que fuera el algoritmo. También conviene recordar que la alfabetización digital no es universal y que depender de que los usuarios introduzcan sus propios datos puede dejar a algunos en desventaja, como se ha informado con el sistema de Crédito Universal, predominantemente digital.

-En tercer lugar, los algoritmos pueden estar mal diseñados y no tener en cuenta factores relevantes. Por ejemplo, en la administración del Crédito Universal: en los casos en los que una persona cobra varias veces en un mes, lo que es común entre los trabajadores autónomos o de la economía colaborativa, el algoritmo puede sobrestimar los ingresos y reducir los pagos del Crédito Universal.

Equidad

La equidad en el tema de algoritmos no es mas que el interés en tomar decisiones de forma justa, transparente y sin sesgos. En pocas palabras, hacer lo correcto sin abuso de poderes, ceguera voluntaria o discriminación que pueda poner en riesgo o situaciones injustas a determinadas poblaciones en situaciones vulnerables.

Mucho se ha dicho sobre estos “abusos” y sesgos en los algoritmos y las formas en que podrían darse, entre esas, la interpretación de los datos por parte de humanos y la manipulación de la analítica de los algoritmos, por ejemplo.

Si no se detectan y no se abordan, estos posibles sesgos podrían impedir que los sistemas de aprendizaje automático cumplan su promesa de mejorar significativamente la precisión y la equidad de los sistemas de decisión automatizados. También podrían exponer a los desarrolladores y usuarios de estos sistemas a la responsabilidad legal por incumplimiento de las leyes antidiscriminatorias.

En un intento de comenzar a regular estos sesgos, el congreso de los Estados Unidos presento el proyecto “Ley de Responsabilidad Algorítmica de 2019”, que propuso que las empresas con más de 50 millones de dólares de ingresos (o la posesión de más de 100 millones de datos de personas) tendrían que realizar evaluaciones de impacto algorítmico de su tecnología.

Eso significa que las empresas estarían obligadas a evaluar los sistemas automatizados que toman decisiones sobre las personas estudiando el diseño, el desarrollo y los datos de entrenamiento del sistema, en busca de «impactos en la precisión, la equidad, el sesgo, la discriminación, la privacidad y la seguridad», según el lenguaje del proyecto de ley.

Para concluir, la gente está preocupada por la privacidad y la posibilidad de que los datos se relacionen con otros conjuntos de datos para revelar información personal.

Aunque vivimos en un mundo más conectado tecnológicamente, la idea de que un algoritmo determine el resultado de la vida de las personas puede dar miedo. Lo que demuestra es la necesidad de ser abiertos y comunicar los beneficios de los algoritmos para la vida cotidiana de las personas, al tiempo que se disipan sus temores.

En este día...


Ramón

Apasionado del Conocimiento Libre y de las personas. Autor de Software Libre y Comunicación

0 Comments

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.