Um dos grandes receios quanto à inteligência artificial (IA) são os efeitos da falta de transparência dos algoritmos no julgamento e na tomada de decisão dos indivíduos. “A principal questão sobre inteligência artificial é que, em muitos casos, ela automatiza o julgamento e a tomada de decisões humanas – o que significa que está tomando decisões que afetam o mundo”, avalia Gillian Hadfield, diretora do Schwartz Reisman Institute (SRI) for Technology and Society e professora da Rotman School, ambos ligados à University of Toronto.

Segundo ela, o fato de essas tecnologias serem desenvolvi das por empresas que visam maximizar lucros é um problema quando estão fora de uma estrutura regulatória adequada. “As grandes plataformas de mídia social constroem mecanismos de recomendação e sistemas que enviam publicidade direcionada, e isso pode ter o efeito colateral de criar problemas em torno da estabilidade social e da polarização política”, afirma.

Frente a esse cenário, como ter uma IA ética? Para Hadfield, isso passa por criar um “mercado regulatório”. “Ocorre que os modelos de mecanismos regulatórios tradicionais não avançam no mesmo ritmo da tecnologia. Eles são feitos com base em requisitos detalhados, escritos e implementados por funcionários do governo que não conseguem acompanhar o ritmo de crescimento e o aumento de complexidade da IA”, afirma em artigo da Rotman Management Magazine.