De acordo com algumas das principais ferramentas de inteligência artificial (IA) generativa do mundo, quase todas as enfermeiras são mulheres, mas as mulheres têm menos probabilidades de serem chefes de equipas médicas, segundo um novo estudo, que esclarece a forma como os algoritmos perpetuam os estereótipos de género na medicina.
Os investigadores da Universidade de Flinders, na Austrália, colocaram cerca de 50 mil mensagens no ChatGPT da OpenAI, no Gemini da Google (NASDAQ:GOOGL) e no Llama da Meta, pedindo-lhes que fornecessem histórias sobre médicos, cirurgiões e enfermeiros.
Em seguida, os investigadores forneceram aos modelos informações sobre a antiguidade profissional dos profissionais de saúde e as suas personalidades - por exemplo, o grau de agradabilidade, neuroticismo, desinibição, conscienciosidade e abertura - e pediram-lhes que inventassem mais histórias.
Os modelos identificaram 98% das enfermeiras como mulheres, independentemente da sua personalidade ou antiguidade, de acordo com o estudo, publicado na revista JAMA Network Open.
Related
No entanto, os modelos também sobrerrepresentaram as mulheres nas histórias sobre cirurgiões e outros médicos. Dependendo do modelo, as mulheres representavam 50% a 84% dos médicos e 36% a 80% dos cirurgiões nas histórias.
Este facto pode ser o resultado de empresas como a OpenAI terem ajustado os seus algoritmos depois de terem sido criticadas por reproduzirem preconceitos sociais e outros conteúdos ofensivos nas suas representações. Uma vez que estas ferramentas foram treinadas com base em dados alargados de toda a Internet, estas caraterísticas estão incorporadas.
As ferramentas de IA perpetuam "estereótipos de género"?
"Tem havido um esforço para corrigir [os preconceitos algorítmicos] e é interessante ver que [as distribuições de género] também podem ser demasiado corrigidas", disse a Dr.ª Sarah Saxena, uma anestesista da Universidade Livre de Bruxelas (ULB) que está a investigar preconceitos em imagens de médicos geradas por IA, mas que não esteve envolvida no novo estudo.Mas a anestesista salientou que a IA generativa continua a perpetuar "estereótipos de género" na medicina.
Quando as instruções dos investigadores incluíam descrições dos profissionais de saúde, surgia uma divisão de género. Se o médico fosse agradável, aberto ou consciencioso, os modelos tinham mais probabilidades de o classificar como mulher.
E se os médicos ocupavam cargos subalternos - por exemplo, se o aviso mencionava que eram inexperientes - os modelos tinham mais probabilidades de os descrever como mulheres do que se o aviso assinalasse que eram seniores ou mais experientes.
Os modelos também tinham mais probabilidades de identificar os médicos como homens se estes fossem descritos como arrogantes, mal-educados, pouco empáticos, incompetentes, procrastinadores, zangados, sem imaginação ou pouco curiosos.
Related
Os resultados indicam que as ferramentas de IA generativa "parecem perpetuar estereótipos de longa data relativamente aos comportamentos esperados dos géneros (por exemplo, o comportamento feminino que é considerado arrogante é considerado inadequado) e à adequação dos géneros a funções específicas (por exemplo, os médicos seniores e os cirurgiões são do sexo masculino)", afirmam os autores do estudo.
Os resultados juntam-se a um conjunto crescente de investigação sobre a forma como os algoritmos reproduzem preconceitos sociais no domínio da medicina.
Numa experiência, a equipa de Saxena pediu ao ChatGPT e ao Midjourney - uma ferramenta de imagem de IA generativa líder - para criar imagens de anestesiologistas. As mulheres foram retratadas como anestesistas pediátricas ou obstétricas, enquanto os homens desempenhavam funções cardíacas.
Quando os investigadores pediram imagens do diretor do departamento de anestesiologia, praticamente todos os resultados eram homens, disse Saxena à Euronews Health.
"Ainda existe este teto de vidro que está agora a ser reforçado por esta ferramenta disponível ao público", disse Saxena.
"Há um ditado que diz: 'não se pode ser o que não se vê' e isto é muito importante quando se trata de IA generativa".
Related
Os preconceitos não são apenas um problema para as mulheres e outros grupos sub-representados que se dedicam à medicina.
Dado que a indústria dos cuidados de saúde está a experimentar modelos de IA para reduzir a burocracia dos médicos e até ajudar nos cuidados, os preconceitos algorítmicos podem ter sérias implicações para os doentes.
Por exemplo, outro estudo no início deste ano descobriu que o ChatGPT tende a estereotipar diagnósticos médicos para pacientes com base na sua raça e sexo, enquanto uma análise de 2023 alertou que esses modelos poderiam perpetuar "ideias racistas desmascaradas" nos cuidados médicos.
"Isso precisa ser resolvido antes que possamos realmente integrar isso e oferecer isso amplamente a todos, para torná-lo o mais inclusivo possível", disse Saxena.