Construir uma experiência irreversível de cooperação criativa
Quais são as condições para criar uma experiência irreversível de cooperação criativa? Como é que uma equipa de aprendizagem enfrenta os desafios?
Publicado em 20 de novembro de 2016 Atualizado em 20 de abril de 2023
A inteligência artificial (IA) tem sido até agora um produto da ficção científica, na sua maioria. Uma alegoria usada para abordar o poder totalitário ou um fogo prometeico permitindo que máquinas, especialmente robôs, se aproximassem dos seres humanos.
Assim, se a relação é ambígua nos autores, imagine agora a vida real. A inteligência artificial vai-se tornando cada vez mais importante à medida que os investigadores desenvolvem o assunto. Porque a I.A. já está nos nossos bolsos. Os Siri e Cortana deste mundo estão. Os algoritmos das redes sociais são também formas de redes sociais.
As inteligências artificiais relacionar-se-ão cada vez mais com os seres humanos. Consequentemente, aqueles que as desenvolvem devem ter isto em consideração. Algumas pessoas pensam, portanto, em dar às inteligências artificiais mais traços humanos. Por exemplo, seria possível incutir nelas a possibilidade de dar, de ser generoso ou cooperativo com os seres humanos? Este é um grande desafio, pois como definir em código um aspecto humano que já é difícil de explicar? Os cientistas informáticos e especialistas estão a tentar analisar e partilhar modelos através de jogos oferecidos a indivíduos seleccionados aleatoriamente.
Estas inteligências também não podem ser corrigidas. De facto, as melhores podem adaptar-se e aprender com novos dados. Como é que o farão? Podemos ensiná-los, mas alguns sugerem que aprenderão de uma forma semelhante à das crianças pequenas explorando o seu ambiente e descobrindo através de tentativas e erros. Desta forma, os robôs equipados com esta tecnologia poderiam adaptar-se melhor ao seu ambiente e aos seres humanos que os rodeiam.
Em todo o caso, uma questão permanece muito espinhosa: a da ética. Na verdade, este é o assunto que mais perturba os criadores de inteligência artificial. Embora todos concordem que a I.A. deve trabalhar para os humanos e não o contrário, não é este o caso quando se trata dos métodos para o conseguir. A Universidade de Stanford publicou um relatório sobre o assunto, tentando prever a vida em 2030 com os progressos neste campo.
Para eles, a I.A. não deve ser regulamentada porque existem diferentes tipos de I.A. e os riscos são diferentes em diferentes áreas. O relatório não é unânime, pois algumas pessoas têm a impressão de que as recomendações têm como objectivo fazer recuar tanto quanto possível a interferência das autoridades públicas no desenvolvimento da inteligência artificial. Além disso, muitos especialistas em ética sentem que terão de unir forças contra o excesso de entusiasmo dos transumanistas para conseguirem impor directrizes.
Um assunto que parece estar deslocado e banalizado, correndo o risco de pôr em perigo os cidadãos em várias situações. Será que os drones militares terão um limiar máximo aceitável de mortes de civis? E com o advento dos automóveis autónomos, que decisões irão tomar? Serão à custa dos passageiros ou das pessoas na estrada? O MIT tem um interessante exercício aberto ao público onde podem analisar e sugerir cenários em que este tipo de carro se depara com um dilema. O que é que o MIT vai escolher fazer? E outras escolhas éticas entrarão em jogo, tais como se os dados pessoais adquiridos por uma IA sobre a saúde de uma pessoa devem ser automaticamente transmitidos a um médico. Haverá um conceito de privacidade que terá de ser incutido nestas inteligências?
E depois há uma noção de aceitabilidade social que terá de ser oferecida com o advento das inteligências artificiais. De facto, elas irão mudar consideravelmente as nossas sociedades. Com elas, os empregos desaparecerão ou serão significativamente reduzidos. Se os taxistas já estiverem zangados com Uber, o que farão quando chegarem carros autónomos? E mesmo os jornalistas poderão ver o seu papel restringido com o uso crescente de jornalistas robôs. E estes algoritmos que poderiam ter controlo sobre as finanças não são imunes a insectos ou a sequestros que poderiam ameaçar a economia de milhares de pessoas, ou mesmo de países.
Neste contexto, deve portanto existir uma verdadeira panóplia de estudos e investigações sobre as ligações entre os seres humanos e as inteligências artificiais. Já estão a ser criados consórcios para reflectir, entre outras coisas, sobre o seu aspecto ético. Esta é uma reflexão que deve ter lugar agora, uma vez que estes se estão a tornar cada vez mais sofisticados.
Ilustração: yourbestdigs iPhone app via photopin (licença)
Referências
Borde, Valerie. "Faut-il Avoir Peur... De L'intelligence Artificielle?" Notícias. Última actualização: 28 de Setembro de 2016. http://www.lactualite.com/societe/faut-il-avoir-peur-de-lintelligence-artificielle/.
"Como vamos viver com as Inteligências Artificiais?" INVESTIGAÇÃO E INOVAÇÃO. Última actualização: 4 de Outubro de 2016. https://blogrecherche.wp.mines-telecom.fr/2016/10/04/impact-social-intelligences-artificielles/.
Guillaud, Hubert. "Rumo a uma Ética para a Inteligência Artificial?". InternetActu.net. Última actualização: 8 de Setembro de 2016. http://www.internetactu.net/a-lire-ailleurs/vers-une-ethique-pour-lintelligence-artificielle/.
"Inteligência Artificial: A Curiosidade da Infância como Motor de Aprendizagem". INVESTIGAÇÃO E INOVAÇÃO. Última actualização: 25 de Julho de 2016. https://blogrecherche.wp.mines-telecom.fr/2016/07/25/intelligence-artificielle-curiosite/.
"Inteligência Artificial: A complexa questão da ética". INVESTIGAÇÃO & INOVAÇÃO. Última actualização: 15 de Setembro de 2016. https://blogrecherche.wp.mines-telecom.fr/2016/09/15/intelligence-artificielle-ethique/.
"As Inteligências Artificiais Devem Dialogar para Ser Eficazes". INVESTIGAÇÃO & INOVAÇÃO. Última actualização: 30 de Agosto de 2016. https://blogrecherche.wp.mines-telecom.fr/2016/08/30/intelligences-artificielles-doivent-dialoguer/.
McKenna, Alain. "Inteligência Artificial: 'Os humanos vão sair daqui, mas...'". LesAffaires.com. Última actualização: 4 de Maio de 2016. https://www.lesaffaires.com/blogues/alain-mckenna/intelligence-artificielle-l-humain-va-s-en-sortir-mais/587259.
Máquina Moral. Acedido a 16 de Novembro de 2016. http://moralmachine.mit.edu/.
Qadiri, Sophia. "Inteligência Artificial: Que Impacto em 2030". O Workshop. Última actualização: 14 de Setembro de 2016. http://www.atelier.net/trends/articles/intelligence-artificielle-impact-2030_443432.
Whitaker, Roger. "Como tornar a Inteligência Artificial mais Generosa". Slate.fr. Última actualização: 22 de Setembro de 2016. http://www.slate.fr/story/123793/intelligence-artificielle-genereuse.
Notícias de Thot Cursus RSS
Leitor de RSS ? :Feedly, NewsBlur
Superprof : a plataforma para encontrar os melhores professores particulares no Brasil e em Portugal