Introdução
Em que tentamos explicar por que consideramos a inteligência artificial um assunto digno de estudo e em que procuramos definir exatamente o que é a inteligência artificial…
1.1 O que é IA?
A IA tenta compreender e construir entidades inteligentes. Há quatro formas principais de abordá-la:
Pensar como humanos | Pensar racionalmente | |
---|---|---|
Agir como humanos | Teste de Turing | Agente racional |
Processo mental | Modelagem cognitiva | Leis do pensamento (lógica formal) |
1.1.1 Agindo como humanos – O Teste de Turing
Proposto por Alan Turing (1950), avalia se um computador pode se passar por humano em uma conversa textual.
Para passar no teste, o sistema deve possuir:
- Processamento de Linguagem Natural
- Representação de Conhecimento
- Raciocínio Automatizado
- Aprendizado de Máquina
- (Para o Teste de Turing Total):
- Visão Computacional
- Robótica
1.1.2 Pensando como humanos – Modelagem Cognitiva
- Baseada em reproduzir os processos mentais humanos.
- Utiliza:
- Introspecção
- Psicologia experimental
- Neuroimagem funcional
- Fortemente ligada à Ciência Cognitiva.
- Exemplo: Newell e Simon criaram o GPS (General Problem Solver) e compararam os passos do programa com o pensamento humano.
1.1.3 Pensando racionalmente – Leis do pensamento
- Origem na lógica formal aristotélica.
- Desenvolvida com silogismos e lógica de primeira ordem.
- Problemas enfrentados:
- Representar conhecimento incerto é difícil.
- Raciocínio lógico pode ser impraticável computacionalmente.
1.1.4 Agindo racionalmente – Agentes racionais
- Agente racional: aquele que faz a melhor ação possível com base nas percepções e no conhecimento disponível.
- Vantagens:
- Mais geral que a lógica pura.
- Possui fundamentação matemática sólida.
- Limitações:
- Racionalidade perfeita é computacionalmente inviável em muitos contextos.
- Racionalidade limitada (bounded rationality) é uma alternativa prática.
1.3 História da Inteligência Artificial
Antes de 1950 – Antecedentes da IA
- Antiguidade: Aristóteles formaliza silogismos, lógica como base do raciocínio.
- Século XVII: Pascal e Leibniz desenvolvem calculadoras mecânicas.
- Século XIX: Boole desenvolve a lógica booleana.
- 1931: Kurt Gödel demonstra limites da lógica formal (teorema da incompletude).
- 1936: Alan Turing define o modelo de computação universal.
- 1943: McCulloch e Pitts criam o primeiro modelo computacional de um neurônio.
- 1949: Donald Hebb propõe a hipótese de plasticidade sináptica (fundamento das redes neurais).
- 1950: Turing publica “Computing Machinery and Intelligence”, propondo o Teste de Turing.
1956 – O nascimento oficial da IA
- Dartmouth Conference: ponto de partida formal da IA.
- Proposto por John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon.
- McCarthy cunha o termo “Inteligência Artificial”.
- Objetivo: construir máquinas que simulassem a inteligência humana.
1950s–1960s – Primeiros programas e otimismo
- Logic Theorist (1955–56) – Newell & Simon: primeiro programa a provar teoremas matemáticos.
- GPS (General Problem Solver) – simula raciocínio humano por metas.
- Criação da linguagem LISP (1958) por John McCarthy, tornando-se padrão para IA por décadas.
- Sistemas jogando damas, álgebra simbólica e resolução de problemas mostram promessas iniciais.
1970s – Primeiras decepções e o “Inverno da IA”
- Expectativas não são cumpridas.
- Problemas com:
- Combinatorial explosion
- Limitações de hardware
- Falta de dados
- Cortes de verbas em projetos governamentais nos EUA e Reino Unido.
1980s – Sistemas Especialistas
- IA volta à tona com sistemas especialistas:
- MYCIN (diagnóstico médico)
- XCON (configuração de computadores)
- Utilizam bases de regras com conhecimento codificado por especialistas.
- Limitações:
- Dificuldade de manutenção
- Fraca generalização
- Alto custo de aquisição de conhecimento
1990s – Aprendizado de Máquina e dados
- Surgimento de algoritmos mais robustos para:
- Redes neurais
- Máquinas de vetores de suporte (SVM)
- Árvores de decisão
- Foco em aprendizado supervisionado e dados reais.
- Crescimento da internet começa a fornecer grandes volumes de dados.
2000s–2010s – IA prática e ressurgimento definitivo
- Avanços em:
- Processamento de linguagem natural
- Reconhecimento de fala e imagem
- Sistemas de recomendação
- Aplicações em:
- Web (Google, Amazon)
- Jogos (Deep Blue vence Kasparov em 1997; AlphaGo vence Lee Sedol em 2016)
- Robótica e carros autônomos (DARPA Challenge)
2010s–hoje – Era do Deep Learning
- Redes neurais profundas (Deep Learning) impulsionam o campo:
- Frameworks: TensorFlow, PyTorch
- Arquiteturas: CNNs, RNNs, Transformers
- Grandes modelos de linguagem:
- BERT (Google), GPT (OpenAI), LLaMA (Meta), entre outros.
- Crescimento do uso em áreas como:
- Medicina
- Direito
- Educação
- Criatividade (arte, música, código)
1.5 Resumo Final
- A IA é o estudo de agentes que percebem e agem no mundo.
- Existem várias maneiras de defini-la: baseadas em pensamento ou comportamento, e em humanos ou racionalidade.
- O livro foca na abordagem do agente racional como unificadora e cientificamente sólida.
- A história da IA mostra um campo com ciclos de grande expectativa, desilusão e renascimento, até atingir o estágio atual de aplicações concretas e impacto global.