No domínio tradicional das ciências sociais, têm sido usados vários métodos para recolha de dados, como questionários, testes comportamentais, estudos observacionais e testes de experiência. Os métodos permitem fornecer uma compreensão abrangente das características dos indivíduos, grupos, culturas e suas interações. No entanto, o surgimento de sistemas avançados de Inteligência Artificial (IA) tem o potencial de remodelar o panorama da recolha de dados nas ciências sociais.
Em artigo publicado na revista Science, por investigadores da Universidade de Waterloo, Universidade de Toronto, Universidade de Yale e Universidade da Pensilvânia, descrevem a transformação potencial do seu trabalho devido à IA, que explorou as implicações dos modelos de linguagem grandes.
Igor Grossmann, da Universidade de Waterloo, destaca o potencial crescente de modelos grandes de linguagem, que foram treinados em extensos dados de texto, para simular respostas e comportamentos semelhantes aos humanos. Eles enfatizam que isso apresenta novas empolgantes perspetivas para testar teorias e hipóteses sobre o comportamento humano em uma escala significativamente maior e mais rapidamente.
De acordo com Igor Grossmann, os modelos de IA têm a capacidade de abranger uma ampla gama de experiências e perspetivas humanas, potencialmente concedendo-lhes um maior grau de liberdade na geração de diversas respostas em comparação com os métodos convencionais de participantes humanos. Essa capacidade pode ser benéfica para atenuar as preocupações relacionadas à generalização na investigação.
Philip Tetlock, da Universidade da Pensilvânia, sugere que os modelos grandes de linguagem poderiam potencialmente substituir os participantes humanos nos processos de recolha de dados. Os modelos grandes de linguagem já demonstraram a capacidade de gerar respostas de investigação realistas relacionadas ao comportamento do consumidor.
O investigador prevê que, nos próximos três anos, os grandes modelos de linguagem revolucionarão a previsão baseada em humanos, e acredita que em debates políticos sérios, não será mais lógico que os humanos, sem a ajuda da IA, façam julgamentos probabilísticos. Mesmo merecendo uma confiança de 90% na previsão, o investigador reconhece que a resposta humana a esses desenvolvimentos permanece incerta.
Embora as opiniões sobre a viabilidade dessa aplicação de sistemas avançados de IA variem, estudos usando participantes simulados podem ser usados para gerar novas hipóteses que podem ser confirmadas em populações humanas.
Os investigadores alertam sobre possíveis armadilhas associadas ao uso de modelos grandes de linguagem nessa abordagem. Uma dessas preocupações é que os modelos grandes de linguagem são normalmente treinados para excluir preconceitos socioculturais que estão presentes em humanos da vida real. Embora essa exclusão ajude a mitigar os vieses, também significa que os sociólogos que utilizam a IA dessa maneira podem não ser capazes de estudar esses mesmos vieses. Essa limitação deve ser levada em consideração ao considerar o uso de IA na investigação em ciências sociais.
A investigadora Dawn Parker, coautora do artigo da Universidade de Waterloo, enfatiza a necessidade de estabelecer diretrizes sobre a governança dos modelos grandes de linguagem em pesquisa. À medida que o uso de modelos grandes de linguagem na pesquisa em ciências sociais se expande, torna-se crucial desenvolver protocolos claros e transparentes para garantir o uso ético e responsável desses modelos. O estabelecimento de tais diretrizes ajudará a orientar os pesquisadores na navegação pelos possíveis desafios e considerações éticas associadas aos modelos grandes de linguagem em seus empreendimentos de pesquisa.
Para a investigadora a importância de considerações pragmáticas relacionadas à qualidade dos dados, justiça e acesso equitativo a poderosos sistemas de IA. Para abordar essas preocupações, enfatiza a importância de garantir que os modelos grandes de linguagem de ciências sociais, como outros modelos científicos, sejam de código aberto. Isso implica disponibilizar os algoritmos e, idealmente, os dados nos quais eles são treinados para exame, teste e modificação por todas as partes interessadas. Ao manter a transparência e a replicabilidade, torna-se possível garantir que a investigação em ciências sociais assistida por IA aprimore genuinamente a compreensão da experiência humana.