Caros Leitores;
O trabalho histórico de Alan Turing e Kurt Godel influi diretamente na inteligência artificial.
[Imagem: Yuichiro Chino/Universidade de Cambridge]
Limites da inteligência artificial
Os humanos geralmente são bons em reconhecer quando erram, mas os sistemas de inteligência artificial não têm essa sagacidade.
Do mesmo modo que algumas pessoas, os sistemas de IA geralmente têm um grau de confiança que excede em muito suas habilidades reais. E, como uma pessoa superconfiante, muitos sistemas de inteligência artificial não sabem quando estão cometendo erros. Às vezes, é ainda mais difícil para um sistema de IA perceber quando está cometendo um erro do que produzir um resultado correto.
E este problema pode não ter correção porque a IA sofre de limitações inerentes devido a um paradoxo matemático centenário.
Pesquisadores da Universidade de Cambridge (Reino Unido) e da Universidade de Oslo (Noruega) afirmam que a instabilidade é o calcanhar de Aquiles da IA moderna, e que um paradoxo matemático mostra as limitações da inteligência artificial.
O problema está nas redes neurais, a ferramenta de última geração em IA, que imita aproximadamente as ligações entre os neurônios do cérebro. Os três pesquisadores demonstraram que existem problemas para os quais existem redes neurais estáveis e precisas, mas nenhum algoritmo consegue produzir tal rede - somente em casos específicos os algoritmos podem computar redes neurais estáveis e precisas.
O trio até propõe uma teoria de classificação que descreve quando as redes neurais podem ser treinadas para fornecer um sistema de IA confiável - o que só acontece, reforçando, sob certas condições específicas.
Não conseguiremos controlar computadores superinteligentes
Que será existe uma lei da física além dos poderes da Matemática?
[Imagem: Cubitt/Perez-Garcia/Wolf]
Paradoxo de Turing e Godel
O paradoxo identificado pelos pesquisadores remonta a dois gigantes da matemática do século 20: Alan Turing e Kurt Godel.
No início do século passado, os matemáticos estavam tentando justificar a matemática como a linguagem consistente definitiva da ciência. No entanto, Turing e Godel mostraram um paradoxo no coração da própria ciência dos números: É impossível provar se certas afirmações matemáticas são verdadeiras ou falsas, e alguns problemas computacionais não podem ser resolvidos com algoritmos.
E, na asserção mais conhecida de Turing e Godel, sempre que um sistema matemático é rico o suficiente para descrever a aritmética que aprendemos na escola, ele não pode provar sua própria consistência.
Décadas depois, o matemático Steve Smale propôs uma lista de 18 problemas matemáticos não resolvidos para o século 21. O 18º problema diz respeito aos limites da inteligência, tanto para os humanos quanto para as máquinas. "O paradoxo identificado pela primeira vez por Turing e Godel agora foi trazido para o mundo da IA por Smale e outros. Existem limites fundamentais inerentes à matemática e, da mesma forma, algoritmos de IA não podem existir para certos problemas," disse o professor Matthew Colbrook, um dos autores da nova demonstração.
O trio afirma em seu artigo que, por causa desse paradoxo, há casos em que boas redes neurais até podem existir, mas uma rede inerentemente confiável não pode ser construída. "Não importa quão precisos sejam seus dados, você nunca pode obter as informações perfeitas para construir a rede neural necessária," reforçou Vegard Antun, coautor do trabalho.
A impossibilidade de computar uma boa rede neural também é verdadeira independentemente da quantidade de dados de treinamento: Não importa quantos dados um algoritmo possa acessar, ele não produzirá a rede desejada. "Isso é semelhante ao argumento de Turing: Existem problemas computacionais que não podem ser resolvidos independentemente do poder de computação e do tempo de execução," disse Anders Hansen, o terceiro autor do artigo.
Inteligência Artificial também sofre de ilusões de óptica
Alguns pesquisadores acreditam que a aprendizagem de Turing pode criar máquinas que aprendem.
[Imagem: U. Sheffield]
Limitações da inteligência artificial
Os três pesquisadores afirmam que nem toda IA é inerentemente falha, mas que ela é confiável apenas em áreas específicas e usando métodos específicos.
"O problema está nas áreas em que você precisa de garantia, porque muitos sistemas de IA são uma caixa preta," explicou Colbrook. "Em algumas situações, está tudo bem que uma IA cometa erros, mas ela precisa ser honesta sobre isso. E não é isso que estamos vendo para muitos sistemas - não há como saber quando eles estão mais confiantes ou menos confiantes sobre uma decisão".
"Atualmente, os sistemas de IA algumas vezes podem ter um toque de adivinhação," disse Hansen. "Você tenta algo e, se não funcionar, adiciona mais coisas, esperando que funcione. Em algum momento, você ficará cansado de não conseguir o que deseja, e você tentará um método diferente. É importante entender as limitações de diferentes abordagens. Nós estamos no estágio em que os sucessos práticos da IA estão muito à frente da teoria e do entendimento. Precisamos de um programa para entender os fundamentos da computação da IA para preencher essa lacuna".
A próxima etapa a que os pesquisadores se propõem será combinar teoria de aproximação, análise numérica e fundamentos de computação para determinar quais redes neurais podem ser computadas por algoritmos e quais podem se tornar estáveis e confiáveis.
Assim como os paradoxos sobre as limitações da matemática e dos computadores identificados por Godel e Turing levaram a ricas teorias de fundamentos - descrevendo tanto as limitações quanto as possibilidades da matemática e da computação - talvez uma teoria de fundamentos semelhante possa florescer na inteligência artificial.
Proposta uma nova forma de inteligência artificial
Bibliografia:
Artigo: The difficulty of computing stable and accurate neural networks - On the barriers of deep learning and Smales 18th problem
Autores: Matthew J. Colbrook, Vegard Antun, Anders C. Hansen
Revista: Proceedings of the National Academy of Sciences
Vol.: 119 (12) e2107151119
DOI: 10.1073/pnas.2107151119
Com informações da Universidade de Cambridge - 28/03/2022
Fonte: Inovação Tecnológica
https://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=paradoxo-matematico-expoe-limites-inteligencia-artificial&id=010150220328#.YkRp2L3MLIU
Obrigado pela sua visita e volte sempre!
Hélio R.M.Cabral (Economista, Escritor e Divulgador de conteúdos da Astronomia, Astrofísica, Astrobiologia e Climatologia).Participou do curso (EAD) de Astrofísica, concluído em 2020, pela Universidade Federal de Santa Catarina (UFSC).
Autor do livro: “Conhecendo o Sol e outras Estrelas”.
Acompanha e divulga os conteúdos científicos da NASA (National Aeronautics and Space Administration), ESA (European Space Agency) e outras organizações científicas e tecnológicas.
Participa do projeto S`Cool Ground Observation (Observações de Nuvens) que é integrado ao Projeto CERES (Clouds and Earth´s Radiant Energy System) administrado pela NASA. A partir de 2019, tornou-se membro da Sociedade Astronômica Brasileira (SAB), como astrônomo amador.
Participa também do projeto The Globe Program / NASA Globe Cloud, um Programa de Ciência e Educação Worldwide, que também tem o objetivo de monitorar o Clima em toda a Terra. Este projeto é patrocinado pela NASA e National Science Fundation (NSF), e apoiado pela National Oceanic and Atmospheric Administration (NOAA) e U.S Department of State.
e-mail: heliocabral@coseno.com.br
Nenhum comentário:
Postar um comentário