top of page

Livro aborda discriminação algorítmica e tomada de decisões a partir da Inteligência Artificial


Foto: Victor Pollak


A saúde digital já é uma realidade. O uso da inteligência artificial para otimizar resultados, analisar dados e sugerir diagnósticos também está em exponencial crescimento. Junto a esse fenômeno, surgem algumas questões jurídicas em torno do uso dos algoritmos na prática médica, incluindo na parte de tomada de decisões. A juíza federal Isabela Ferrari, que é Doutora em Direito Público, conversou com o Portal Health Connections sobre essa questão no lançamento de seu livro “Discriminação Algorítmica e Poder Judiciário: limites à adoção de sistemas de decisões algorítmicas no Judiciário brasileiro”, que aconteceu dia 27 de julho na livraria Argumento, no Leblon.


Pensando na área médica, a inteligência artificial está sendo usada cada vez mais para auxiliar médicos e enfermeiros a determinar diagnósticos. De acordo com a juíza,“se formos nos basear nos dados usados na área da saúde, muitas vezes eles têm uma representatividade maior de alguns grupos sociais por conta da estrutura da nossa sociedade”. Ela explica que, por exemplo, um sistema de inteligência artificial que ajuda a diagnosticar uma determinada doença, muitas vezes pega essas informações de prontuários eletrônicos, e os hospitais que oferecem esse tipo de sistema normalmente atendem classes com melhor poder aquisitvo, o que acaba gerando um recorte étnico e social.


No livro, a jurista também fala sobre os riscos de se trabalhar com IA e a discriminação que muitas vezes acaba fazendo parte do sistema de algoritmo utilizado. Isso acontece, segundo a escritora, porque os “dados são coletados e produzidos pela sociedade, e acabam reproduzindo os mesmos preconceitos, que vão desde a forma como formulamos as perguntas para determinados problemas, até o processo e suas soluções”. A profissional salienta que é importante questionarmos, inclusive, as importações dos sistemas de dados de outros países.

“Eu acredito que essa publicação mapeia as portas de entrada da discriminação e ajuda a pensar como a inteligência artificial e os sistemas de algoritmo vão ser modulados e incorporados, pensando em um possível processo que seja benéfico para todos”, destaca Ferrari.


Em sua mais recente obra, a autora aborda também a questão da tomada de decisão baseada em algoritmo. Aplicando à área da saúde, Ferrari acredita que não é justo responsabilizar apenas o médico por uma decisão errada que tenha sido baseada em algum sistema algorítmico, por mais que seja dele a palavra final. Ela acredita que existe uma lacuna que o médico não consegue olhar, e cita o conceito da opacidade algorítimica: “A gente olha para informação de entrada e para o resultado, mas não consegue saber como o algoritmo chegou naquela recomendação. É preciso entender quem determinou que aquele sistema fosse usado, quem desenvolveu o sistema”. Além disso, Ferrari acredita que nem mesmo o desenvolvedor pode ser 100% responsabilizado: “Muitas vezes os algoritmos usam um código aberto e são um resultado da interação entre vários outros, às vezes públicos, e têm problemas não mapeados”.


Por haver essa complexidade, Isabela Ferrari acredita que é preciso que haja um entendimento do funcionamento dos algoritmos por conta dos utilizadores. Por fim, a juíza alega que, para que surja um consenso jurídico no que tange a esses problemas derivados de recomendações algorítmicas, é preciso que haja uma revisitação em todo o sistema de responsabilidade civil.




25 visualizações0 comentário

Comments


bottom of page