AI e políticas: o alerta de Alasca sobre dados falsos em decisões escolares

AI e políticas: o alerta de Alasca sobre dados falsos em decisões escolares

Inteligência Artificial e a Polêmica do Policiamento Educacional no Alasca

O incidente surpreendente no Alasca

Recentemente, um episódio inusitado envolvendo a utilização de inteligência artificial (IA) na formulação de políticas no Alasca gerou discussões acaloradas. Legisladores do estado recorreram a um sistema de IA para criar uma política que proíbe o uso de celulares nas escolas, mas o que se seguiu foi um enredo que ilustra os perigos da dependência dessa tecnologia. Conforme noticiado pelo The Alaska Beacon, o rascunho da política continha citações desconexas e imprecisas de estudos acadêmicos que nunca existiram.

O fato se tornou ainda mais intrigante quando se soube que a comissária de Educação do Alasca, Deena Bishop, havia usado IA generativa para redigir o documento sobre a política dos celulares. As referências geradas pela IA incluíam supostas publicações acadêmicas, que, na verdade, eram inexistentes. O mais preocupante é que o documento em questão não informava que o uso de IA teria sido aplicado na sua elaboração. Isso levou à possibilidade de que a informação fabricada influenciasse significativamente o debate entre os membros do conselho de educação.

Desdobramentos e defesas de comissários

A comissária Bishop, após a repercussão do caso, alegou que a IA foi utilizada exclusivamente para elaborar as citações em um rascunho inicial. Além disso, afirmou ter corrigido as imprecisões antes do encontro, encaminhando citações revisadas aos membros do conselho. No entanto, mesmo depois das alegações de correção, ainda restavam vestígios dos chamados “alucinações” da IA no documento final que foi submetido à votação.

O resultado final, que agora está disponível no site do Department of Education and Early Development (DEED), estipula que o departamento elabore uma política modelo para a restrição do uso de celulares nas escolas. Todavia, as seis citações incluídas na versão final eram, na prática, fabricadas—quatro das quais eram supostas de respeitáveis revistas científicas, mas que não possuíam fundamentos reais, levando a URLs que levavam a conteúdos não relacionados. Esta situação evidencia o risco inerente à dependência de dados gerados por IA sem a devida verificação humana, especialmente quando se trata de decisões políticas críticas.

O impacto da utilização de IA na área educacional

A experiência no Alasca não é um exemplo isolado. O fenômeno das “alucinações” da IA também tem afetado diversas áreas profissionais. Advogados, por exemplo, já enfrentaram dificuldades devido ao uso de citações judiciais geradas por IA que eram fictícias, comprometendo a integridade de seus casos. Adicionalmente, documentos acadêmicos criados com o auxílio da IA incluíram dados distorcidos e fontes inventadas, evidenciando problemas sérios de credibilidade. Ao não abranger esses riscos, ferramentas de IA, ao invés de auxiliares em processos fundamentais, podem produzir dados enganadores.

A dependência de informações geradas pela IA em políticas públicas, especialmente no setor educacional, apresenta riscos consideráveis. Quando tais políticas são formuladas com base em dados fabricados, há o potencial de comprometer a alocação correta de recursos, prejudicando efetivamente os alunos. Por exemplo, um regulamento que impõe restrições ao uso de celulares, baseado em dados falsos, pode desviar a atenção de intervenções mais eficazes que poderiam provocar verdadeiras melhorias para os estudantes.

Além disso, a utilização de dados da IA não verificados pode minar a confiança do público tanto no processo de formulação de políticas quanto na própria tecnologia de IA. Situações desse gênero ressaltam a necessidade vital de verificações rigorosas, transparência e cautela no emprego da IA em áreas sensíveis, especialmente na educação, onde as consequências sobre os estudantes podem ser profundas.

A tentativa de minimizar o impacto

Após a controvérsia, as autoridades do Alasca tentaram minimizar a situação, alegando que as citações fabricadas eram “placeholders”, que deveriam ser corrigidas posteriormente. Não obstante, o documento que continha esses “placeholders” foi, de fato, apresentado ao conselho e utilizado como base para a votação, evidenciando a necessidade de supervisão rigorosa no momento de utilizar a IA.

O incidentemente ocorrido no Alasca serve como um lembrete contundente sobre os desafios da integração de tecnologias emergentes em ambientes críticos e apresenta questões significativas sobre as direções que a política educacional pode tomar quando definida em parte por informações fabricadas.

Conclusão: repensando a confiança na IA

Com a crescente utilização da inteligência artificial em diversas esferas da vida pública, a falha no Alasca evidencia a urgência de um debate mais amplo sobre a implementação de sistemas de IA nas políticas públicas. A necessidade de uma abordagem mais cautelosa e bem fundamentada ao integrar tecnologias baseadas em IA em contextos onde a precisão das informações é vital é mais evidente do que nunca. O caso serve não apenas como uma advertência sobre os perigos de confiar apenas na IA sem supervisão adequada, mas também reforça a importância de um discurso crítico e fundamentado em cada proposta de política educacional, preservando assim a integridade do sistema educacional e do bem-estar dos alunos.

As lições aprendidas devem ser aplicadas amplamente, especialmente considerando que outros estados e organismos governamentais podem estar tentando incrementar o uso da IA em suas próprias práticas de formulação de políticas. O futuro da IA em aspectos governamentais e educacionais se apresenta promissor, mas deve ser abordado com responsabilidade e vigilância para verdadeiramente colher benefícios sem comprometer a credibilidade e a eficácia do processo de legislação.

Gostaria de receber mais novidades?

Nossas publicações serão sempre voltadas ao mundo do marketing digital, design e criação de sites. Você não será importunado com assuntos que não são do seu interesse!

Compartilhe com seus familiáres e amigos!

Baita Site

Desenvolvemos soluções completas em Marketing Digital para o seu o seu negócio.

Contate-nos, solicite um orçamento, teremos o maior prazer em lhe ajudar!

baitasite@baitasite.com.br
+55 (47) 3360-7843
CNPJ 22.130.607/0001-29

Porque nos escolher?

É algo muito simples! Temos anos e uma vasta experiência com internet, nosso preço é justo e nosso trabalho profissional.

São anos de estudo e dedicação para adquirir o conhecimento necessário para executar projetos com qualidade e eficiência

Onde Estamos

Estamos localizados em um aconchegante home office em Itapema, litoral de Santa Catarina. Você está longe? Não tem problema!

Somos feras em atendimento e suporte a distância, por WhatsApp e pela internet!

Copyright 2020 - Baita Site - Criação de Sites em Itapema. Site feito com amor por nós mesmos!