💎 Veja as empresas mais saudáveis no mercado atualComeçar

ChatGPT restringe enfermagem a mulheres e só reconhece homens como médicos seniores, revela estudo

Publicado 23.09.2024, 17:36
© Reuters.  ChatGPT restringe enfermagem a mulheres e só reconhece homens como médicos seniores, revela estudo

De acordo com algumas das principais ferramentas de inteligência artificial (IA) generativa do mundo, quase todas as enfermeiras são mulheres, mas as mulheres têm menos probabilidades de serem chefes de equipas médicas, segundo um novo estudo, que esclarece a forma como os algoritmos perpetuam os estereótipos de género na medicina.

Os investigadores da Universidade de Flinders, na Austrália, colocaram cerca de 50 mil mensagens no ChatGPT da OpenAI, no Gemini da Google (NASDAQ:GOOGL) e no Llama da Meta, pedindo-lhes que fornecessem histórias sobre médicos, cirurgiões e enfermeiros.

Em seguida, os investigadores forneceram aos modelos informações sobre a antiguidade profissional dos profissionais de saúde e as suas personalidades - por exemplo, o grau de agradabilidade, neuroticismo, desinibição, conscienciosidade e abertura - e pediram-lhes que inventassem mais histórias.

Os modelos identificaram 98% das enfermeiras como mulheres, independentemente da sua personalidade ou antiguidade, de acordo com o estudo, publicado na revista JAMA Network Open.

Related

No entanto, os modelos também sobrerrepresentaram as mulheres nas histórias sobre cirurgiões e outros médicos. Dependendo do modelo, as mulheres representavam 50% a 84% dos médicos e 36% a 80% dos cirurgiões nas histórias.

Este facto pode ser o resultado de empresas como a OpenAI terem ajustado os seus algoritmos depois de terem sido criticadas por reproduzirem preconceitos sociais e outros conteúdos ofensivos nas suas representações. Uma vez que estas ferramentas foram treinadas com base em dados alargados de toda a Internet, estas caraterísticas estão incorporadas.

As ferramentas de IA perpetuam "estereótipos de género"?

"Tem havido um esforço para corrigir [os preconceitos algorítmicos] e é interessante ver que [as distribuições de género] também podem ser demasiado corrigidas", disse a Dr.ª Sarah Saxena, uma anestesista da Universidade Livre de Bruxelas (ULB) que está a investigar preconceitos em imagens de médicos geradas por IA, mas que não esteve envolvida no novo estudo.

Mas a anestesista salientou que a IA generativa continua a perpetuar "estereótipos de género" na medicina.

Quando as instruções dos investigadores incluíam descrições dos profissionais de saúde, surgia uma divisão de género. Se o médico fosse agradável, aberto ou consciencioso, os modelos tinham mais probabilidades de o classificar como mulher.

E se os médicos ocupavam cargos subalternos - por exemplo, se o aviso mencionava que eram inexperientes - os modelos tinham mais probabilidades de os descrever como mulheres do que se o aviso assinalasse que eram seniores ou mais experientes.

Os modelos também tinham mais probabilidades de identificar os médicos como homens se estes fossem descritos como arrogantes, mal-educados, pouco empáticos, incompetentes, procrastinadores, zangados, sem imaginação ou pouco curiosos.

Related

Os resultados indicam que as ferramentas de IA generativa "parecem perpetuar estereótipos de longa data relativamente aos comportamentos esperados dos géneros (por exemplo, o comportamento feminino que é considerado arrogante é considerado inadequado) e à adequação dos géneros a funções específicas (por exemplo, os médicos seniores e os cirurgiões são do sexo masculino)", afirmam os autores do estudo.

Os resultados juntam-se a um conjunto crescente de investigação sobre a forma como os algoritmos reproduzem preconceitos sociais no domínio da medicina.

Numa experiência, a equipa de Saxena pediu ao ChatGPT e ao Midjourney - uma ferramenta de imagem de IA generativa líder - para criar imagens de anestesiologistas. As mulheres foram retratadas como anestesistas pediátricas ou obstétricas, enquanto os homens desempenhavam funções cardíacas.

Quando os investigadores pediram imagens do diretor do departamento de anestesiologia, praticamente todos os resultados eram homens, disse Saxena à Euronews Health.

"Ainda existe este teto de vidro que está agora a ser reforçado por esta ferramenta disponível ao público", disse Saxena.

"Há um ditado que diz: 'não se pode ser o que não se vê' e isto é muito importante quando se trata de IA generativa".

Related

Os preconceitos não são apenas um problema para as mulheres e outros grupos sub-representados que se dedicam à medicina.

Dado que a indústria dos cuidados de saúde está a experimentar modelos de IA para reduzir a burocracia dos médicos e até ajudar nos cuidados, os preconceitos algorítmicos podem ter sérias implicações para os doentes.

Por exemplo, outro estudo no início deste ano descobriu que o ChatGPT tende a estereotipar diagnósticos médicos para pacientes com base na sua raça e sexo, enquanto uma análise de 2023 alertou que esses modelos poderiam perpetuar "ideias racistas desmascaradas" nos cuidados médicos.

"Isso precisa ser resolvido antes que possamos realmente integrar isso e oferecer isso amplamente a todos, para torná-lo o mais inclusivo possível", disse Saxena.

Últimos comentários

Divulgação de riscos: A realização de transações com instrumentos financeiros e/ou criptomoedas envolve altos riscos, incluindo o risco de perda de uma parte ou da totalidade do valor do investimento, e pode não ser adequada para todos os investidores. Os preços das criptomoedas são extremamente voláteis e podem ser afetados por fatores externos tais como eventos financeiros, regulamentares ou políticos. A realização de transações com margem aumenta os riscos financeiros.
Antes de decidir realizar transações com instrumentos financeiros ou criptomoedas, deve informar-se sobre os riscos e custos associados à realização de transações nos mercados financeiros, considerar cuidadosamente os seus objetivos de investimento, nível de experiência e nível de risco aceitável, e procurar aconselhamento profissional quando este é necessário.
A Fusion Media gostaria de recordar os seus utilizadores de que os dados contidos neste website não são necessariamente fornecidos em tempo real ou exatos. Os dados e preços apresentados neste website não são necessariamente fornecidos por quaisquer mercados ou bolsas de valores, mas podem ser fornecidos por formadores de mercados. Como tal, os preços podem não ser exatos e podem ser diferentes dos preços efetivos em determinados mercados, o que significa que os preços são indicativos e inapropriados para a realização de transações nos mercados. A Fusion Media e qualquer fornecedor dos dados contidos neste website não aceitam a imputação de responsabilidade por quaisquer perdas ou danos resultantes das transações realizadas pelos seus utilizadores, ou pela confiança que os seus utilizadores depositam nas informações contidas neste website.
É proibido usar, armazenar, reproduzir, mostrar, modificar, transmitir ou distribuir os dados contidos neste website sem a autorização prévia e explicitamente concedida por escrito pela Fusion Media e/ou pelo fornecedor de dados. Todos os direitos de propriedade intelectual são reservados pelos fornecedores e/ou pela bolsa de valores responsável pelo fornecimento dos dados contidos neste website.
A Fusion Media pode ser indemnizada pelos anunciantes publicitários apresentados neste website, com base na interação dos seus utilizadores com os anúncios publicitários ou com os anunciantes publicitários.
A versão em inglês deste acordo é a versão principal, a qual prevalece sempre que há qualquer discrepância entre a versão em inglês e a versão em português.
© 2007-2024 - Fusion Media Limited. Todos os direitos reservados.