IA deve ser evitada por estudantes, diz população dos EUA
IA deve ser evitada por estudantes, diz população dos EUA

Com o avanço das inteligências artificiais (IA), a Statista, plataforma alemã de inteligência de dados, levantou, entre agosto e setembro de 2023, a percepção da população dos Estados Unidos sobre o uso de ferramentas baseadas em IA por estudantes em seus trabalhos. Quando questionados sobre a frequência com que eles deveriam utilizar esse tipo de tecnologia, os entrevistados deram a entender que a aplicação deve ser evitada. As respostas que apontam que o uso de IA  deve ser feito “nunca”, “raramente” ou só “às vezes”, somadas, representam 76% da amostra.

A pesquisa coletou informações junto a 1000 pessoas a partir de 18 anos, por meio de questionário on-line. Quando questionadas sobre qual seria a frequência de uso de IA entre estudantes, caso o recurso fosse proibido em trabalhos acadêmicos, essas pessoas acreditam que esse uso pouco diminuiria. A frequência seria reduzida em apenas 2%, em relação ao que percebem como o usual entre estudantes.

Debruçado sobre essas impressões norte-americanas, o brasileiro Fernando Giannini, autor do livro Chat GPT – Modos de pensar as relações com inteligências artificiais (2023, Streammer Educação e Tecnologia) e consultor em IA e Educação, entende que proibir ou evitar o uso de inteligência artificial por estudantes não é a questão. É necessário fazê-los entender com o que estão lidando. “Proibir não é o caminho. Orientar para o uso responsável, sim”, enfatiza o especialista.

Para Giannini, é preciso um aculturamento, entender como a máquina aprende e os contratos estabelecidos no uso de uma IA. Um educador esclarecido no assunto deve treinar para que a aplicação seja responsável e verdadeiramente proveitosa “No caso da IA generativa, é preciso que se explique, por exemplo, as implicações autorais e que o tratamento dos dados imputados na ferramenta não é claro”, entende.

“Portanto, é necessário cuidado com o que se compartilha em um chatbot generativo”,  menciona o consultor, sobre dados sensíveis, produções inéditas e outros tantos conteúdos que podem ter sua propriedade questionada no futuro.
Por outro lado, as informações fornecidas pela IA não são totalmente confiáveis. “A base de dados é limitada e a máquina aprendeu a ‘criar’ respostas, quando as informações não constam em sua base”, destaca.

Outra questão importante é que as inteligências artificiais são predominantemente norte-americanas ou europeias e os resultados de pesquisas ou solicitações feitas em um chatbot, por exemplo, podem ser cultural e historicamente enviesados para uma visão de mundo predominante na Europa ou nos EUA, criando uma hegemonia estética e intelectual.

“É preciso massa crítica para usar uma IA, caso contrário, estaremos reféns de (ou endossando) conteúdos equivocados, incompletos ou totalmente fora de nosso contexto culltural”, finaliza Giannini.