Atrás · Actualidade · A guía de ECO · Subscrición · Contacto

Controlando algoritmos

PUBLICADO O 09 DE AGOSTO DE 2022 · (0)



SIMÓN REGO VILAR · CONSELLEIRO DO CONSELLO DE CONTAS DE GALICIA


Hai seis anos, no Foro de Davos, o premio Nobel de Economía 2013, Robert J. Schiller, advertía: “Non se pode agardar ata que a casa se queime para contratar un seguro contra incendios. Non podemos agardar ata que existan dislocacións masivas na nosa sociedade para prepararse para a cuarta revolución industrial”.

Nunha recente conferencia na Escola Galega de Administración Pública, o catedrático de Ciencia Política e da Administración da Universidade Pompeu Fabra, Carles Ramió, plantexaba con rigor que nun contexto de crecente complexidade, por incorporación de novas dimensións, onde todas as políticas e servizos públicos son complexos, resulta imprescindible a incorporación á intelixencia institucional das administracións públicas, da intelixencia colectiva existente fóra da administración. Pero tamén e, xa está aquí, das potencialidades da intelixencia artificial.

Neste sentido, son múltiples e diversos os exemplos: desde a xestión do bono social eléctrico ata o algoritmo que avalía o risco persoal das mulleres víctimas de violencia de xénero ou o caso dos xuíces-robot, que en Estonia é a intelixencia artificial que falla en casos de ata 7.000 euros. O propio Consejo General del Poder Judicial en España ten creado un grupo de traballo no ámbito da “Tecnoloxía, Intelixencia Artificial e Administración de Xustiza”. Igualmente, vinculado á xestión da pandemia, o Hospital Clinic de Barcelona identifica patróns comúns nas analíticas dos pacientes Covid-19 mediante a aplicación dunha solución de intelixencia artificial que analiza en tempo real máis dun trillón de datos de doentes, propón tratamentos personalizados que conlevan unha reducción da mortalidade nun 50%, así como predí a mortalidade cun 90% de acerto.

Toda face, sen embargo, ten o seu envés. E a intelixencia artificial non é menos. Os algoritmos non poden ser alleos ás esixencias de transparencia e rendición de contas, non poden constituir caixas negras sen marcos de responsabilidade e control ético claramente definidos, ás que solo se accede en caso de catástrofe.

O Tribunal de Contas dos Países Baixos, pioneiro neste ámbito, presentou xa en 2021 un informe baixo o título Entendendo os algoritmos, onde se pon de relevancia que a meirande parte dos algoritmos empregados no ámbito público son relativamente simples e asociados á automatización de procesos e á prestación de servizos, como o envío automático de notificacións ou a preselección inicial de beneficiarios de axudas, pero xa detecta tamén ámbitos de maior innovación e uso da intelixencia artificial, sen chegar a atopar algoritmos que permitan implementar programas de acción pública sen intervención humana. Neste traballo destácase como se están a obviar os aspectos éticos na xestión dos algoritmos, a adecuada xestión de riscos asociados a sesgos que poden ter impactos discriminatorios, así como a importancia dos controis de ciberseguridade.

Recentemente, este mesmo órgano de control externo publicou a auditoría de nove algoritmos empregados polo Goberno, dos cales seis presentaban incumprimentos vinculados a factores de risco relevantes, nomeadamente no ámbito dos controis de ciberseguridade e sesgos tanto nos modelos como nos datos, que poden conducir a variacións sistémicas discriminatorias en relación con determinados individuos ou colectivos, do tipo, por exemplo, da que levou ao Tribunal de distrito da Haya a declarar ilegal un algoritmo de avaliación para previr o risco de fraude á seguridade social e a facenda, sinalando que non cumpría as esixencias de proporcionalidade, carecía de transparencia e vulneraba as previsións sobre respecto á vida privada que recoñece o artigo 8 do Convenio Europeo de Dereitos Humanos do Consello de Europa.

En síntese, a procura da eficiencia non pode basearse en caixas negras alleas á transparencia, á rendición de contas, tamén ética, e ao control público das árbores de decisión.



Comentar








Enviar

Comentarios (0)