Artigos

Publicado em 01 de dezembro de 2023 Atualizado em 05 de dezembro de 2023

Inteligência artificial e educação

Escolhas a fazer agora

Dados, manuscrito e artefactos

O tema da inteligência artificial na educação é objeto de muito debate e suscita muitas questões. O objetivo deste artigo é analisar algumas das questões fundamentais para a gestão da educação. O novo campo disruptivo da I.A. pode ser ensinado, juntamente com as ferramentas operacionais que afectam os dados de gestão dos alunos e dos professores.

O que é a inteligência artificial?

"A inteligência artificial (IA) é um conjunto de teorias e técnicas destinadas a criar máquinas capazes de simular a inteligência humana.
Frequentemente classificada no grupo das matemáticas e das ciências cognitivas, baseia-se na neurobiologia computacional (nomeadamente nas redes neuronais) e na lógica matemática (parte da matemática e da filosofia). Utiliza métodos para resolver problemas de elevada complexidade lógica ou algorítmica. Por extensão, inclui, na linguagem corrente, dispositivos que imitam ou substituem os seres humanos em algumas das suas funções cognitivas.

As aplicações da IA incluem motores de pesquisa, sistemas de recomendação, compreensão da linguagem natural, carros autónomos, chatbots, ferramentas de geração de imagens, ferramentas de tomada de decisões automatizadas e programas competitivos em jogos de estratégia.

Desde que o conceito surgiu, os seus objectivos e desafios, bem como o seu desenvolvimento, deram origem a inúmeras interpretações, fantasias e preocupações, expressas tanto em histórias e filmes de ficção científica como em ensaios filosóficos. Embora as ferramentas de inteligência artificial especializadas ou generativas tenham provado o seu valor, a realidade parece ainda manter a inteligência artificial de objetivo geral muito longe do desempenho dos organismos vivos em todas as suas capacidades naturais".

Fonte: wikipedia https://fr.wikipedia.org/wiki/Intelligence_artificielle

Em que momento é que um gestor da educação tem de fazer escolhas?

A palavra "gestor da educação" é utilizada aqui de uma forma muito geral. Deve ser entendida como uma pessoa que toma decisões sobre a escolha e a utilização de uma inteligência artificial que estará envolvida no seu trabalho.

As escolhas possíveis são as seguintes

escolher a IA a ser ensinada ou utilizada por

  • estudantes
  • professores
  • outros profissionais (orientação profissional, enfermagem, etc.)
  • colegas gestores

escolher a IA para gerir o ecossistema escolar ou universitário por

  • pessoal administrativo
  • operadores logísticos
  • outras organizações inter-relacionadas
  • ...

A que é que devemos estar atentos?

Boas práticas

"Com base nesta observação, é possível implementar uma série de boas práticas para limitar e evitar, tanto quanto possível, a amostragem e os enviesamentos cognitivos. Para tal, enumerámos 10 regras de ouro que devem ser observadas durante um projeto de IA:

  1. Selecionar dados reais, da mesma fonte que os que serão utilizados na produção: quanto mais fiéis forem os dados de formação aos dados de produção, mais precisos serão os resultados.

  2. Utilizar dados recentes e actualizá-los tanto quanto possível, uma vez que os dados do passado não podem refletir com precisão os dados actuais (mudanças nas práticas, formas de pensar, etc.).

  3. Dispor de uma quantidade suficiente de dados para poder identificar tendências objectivas.

  4. Partir de uma necessidade comercial e identificar com precisão o utilizador-alvo: é muito mais difícil desenvolver um sistema de IA se o seu objetivo não for tangível e claramente definido. Além disso, o conhecimento do utilizador-alvo, que será, portanto, parte integrante da melhoria contínua da IA, permite ter em conta os potenciais preconceitos.

  5. Comunicar com os responsáveis pela formação e formá-los previamente: da mesma forma, quanto mais clara for a comunicação e as boas práticas a adotar, mais dúvidas e erros serão evitados durante a formação.

  6. Recorrer à validação independente: o desempenho de um algoritmo deve ser validado com dados independentes que não tenham sido utilizados para o treinar.

  7. Formar uma equipa multidisciplinar: parece essencial poder ter um olhar crítico sobre a solução desenvolvida e o seu desempenho, e garantir sempre que esta responde à questão colocada, e que os resultados obtidos fazem sentido e não correm o risco de serem manchados por enviesamentos.

  8. Assegurar que as variáveis utilizadas para o treino são consistentes e relevantes para o resultado pretendido: para um chatbot, por exemplo, o algoritmo deve ser preparado para as questões que terá de enfrentar quando entrar em produção.

  9. Utilizar ferramentas para identificar enviesamentos: Lime, Open Scale, AI Fairness 360, etc.

  10. Por último, mas não menos importante, evite depositar demasiada confiança na IA e mantenha um olhar crítico: especialmente para o utilizador-alvo, porque quanto mais a IA for corrigida, mais eficaz será".

Fonte: Vieses da IA: quais são as alavancas para os controlar? - Romain Lamotte - 2021
https://kpmg.com/fr/fr/blogs/home/posts/2021/1/comment-maitriser-utilisation-ia.html

A inteligência não pode ser deixada à solta. É da sua responsabilidade verificar regularmente os pontos acima referidos.

O que é um enviesamento cognitivo na inteligência artificial?

"Os enviesamentos cognitivos são padrões de pensamento repetidos que levam a conclusões incorrectas e subjectivas. O enviesamento de confirmação, por exemplo, refere-se à tendência do cérebro para procurar e concentrar-se em informações que apoiam aquilo em que alguém já acredita, ignorando os factos que vão contra essas crenças, apesar da sua relevância. O enviesamento de atribuição ocorre quando as pessoas tentam atribuir razões ou motivações às suas acções ou às dos outros, sem que essas razões ou motivações reflictam necessariamente a realidade.

Os enviesamentos cognitivos podem ajudar-nos a tomar decisões mais rapidamente, mas por vezes à custa da racionalidade. Até à data, foram identificados 180 preconceitos que afectam a nossa capacidade de julgamento. Trata-se de um número impressionante, que põe em causa a justiça e a imparcialidade das nossas decisões quotidianas.
No entanto, os chamados enviesamentos cognitivos não são a única definição de enviesamento. Em estatística, por exemplo, a recolha de dados a partir de uma amostra que não é representativa da população em geral constitui um "enviesamento de amostragem". Os resultados obtidos não podem conduzir a conclusões relativas à população no seu conjunto.

Assim, temos de voltar aos princípios básicos das soluções de Inteligência Artificial para compreender as implicações de todos estes enviesamentos. Antes de mais, a inteligência artificial é concebida por um humano. Por conseguinte, pode tornar-se uma lupa para os seus próprios preconceitos. Entre estes preconceitos, devemos mencionar que, neste domínio, só encontramos o que procuramos: uma IA só reproduz o que foi desenvolvida e treinada para fazer, só responde à pergunta que lhe é feita, pelo que temos de nos certificar de que a pergunta está corretamente formulada.

Em segundo lugar, uma IA é treinada com base em exemplos conhecidos, seleccionados por um humano. Por conseguinte, é essencial que estes exemplos sejam fiáveis, em quantidade suficiente e não estejam contaminados por preconceitos - por exemplo, preconceitos de amostragem".

Fonte idem: Vieses da IA: quais são as alavancas para os controlar?


Outro risco não menos significativo é a utilização de dados por outros utilizadores ou por utilizadores não identificados.

Este ponto toca em duas questões distintas

  • cibersegurança
  • backdoors

Os dados geridos pela inteligência artificial não estão, portanto, protegidos. E quanto mais sensíveis forem os dados, menos precisam de ser diretamente manipulados por terceiros internos ou externos (humanos ou tecnológicos). Sempre que existem gateways, portas abertas e pontes para outros sistemas, os riscos multiplicam-se.

O segundo ponto é mais sensível e difícil porque o risco tem de ser avaliado. Como indicado na secção cognitiva, um programa informático é criado por um ser humano que o faz desenvolver por outros seres humanos. Assim, já existem riscos de falhas no modelo, que se podem multiplicar e intensificar com o tempo. Por exemplo, um programa humanitário pode transformar-se, com o tempo, num programa puramente financeiro, se for introduzido um indesejável grão de ADN de carácter financeiro.

No entanto, o verdadeiro risco não é o de cometer um erro, mas o de criar processos internos que não correspondem aos desejos do cliente. O problema pode vir da empresa ou de uma iniciativa pessoal de um empregado. Por exemplo, um sistema de inteligência artificial precisa de cruzar o maior número possível de dados para aperfeiçoar o seu funcionamento e pode utilizar os seus dados para esse fim sem o seu conhecimento. É por isso que é importante assinar protocolos de confidencialidade com esses prestadores de serviços, especialmente se isso não estiver incluído nos protocolos de marketing.

Quanto aos programas desconhecidos que podem ter sido instalados sem o conhecimento de ninguém, por vezes são impossíveis de detetar, mas acabam sempre por vir à tona. É por isso que temos de ser extremamente rigorosos na utilização e segurança dos dados, para que não tenhamos de lidar com alguns dos problemas mais tarde, o que é mais uma razão para formar o nosso pessoal de forma eficaz e ética. E se os protocolos implementados pela sua comunidade ou país não parecerem suficientemente eficazes ou éticos... então nada o impede de criar os seus próprios documentos contratuais para os complementar.

E se o intermediário ou o criador da solução se recusar a assinar, então diga a si próprio que ele não pode ser um bom parceiro para cuidar e gerir os seus dados. Não se esqueça de que é um cliente, mesmo de um sistema chave-na-mão, e um cliente deve ser servido de acordo com os seus desejos e não ter de se contorcer para se adaptar a um produto existente. Se puder pagar, opte por ferramentas feitas à medida ou modulares.

A inteligência artificial está a mudar o mundo

A inteligência artificial continua a ser uma ferramenta que deve permanecer ao nosso serviço, para nos ajudar no nosso trabalho. Revolucionar o mundo da educação é complicado. Para evitar fazer escolhas erradas, estão disponíveis recursos, parcerias e grupos de trabalho sobre os mesmos temas. Não somos os únicos a enfrentar estas escolhas.

Fonte da imagem: Pixabay - Hobim


Veja mais artigos deste autor

Dossiês

  • I.A. perturbadora

Notícias de Thot Cursus RSS
Leitor de RSS ? :Feedly, NewsBlur

Superprof : a plataforma para encontrar os melhores professores particulares no Brasil e em Portugal



Receba nosso dossiê da semana por e-mail

Mantenha-se informado sobre o aprendizado digital em todas as suas formas, todos os dias. Idéias e recursos interessantes. Aproveite, é grátis!