MasterChef AI

Receitas e Aplicações sobre IA

Acesse nosso GitHub

Introdução

Em que tentamos explicar por que consideramos a inteligência artificial um assunto digno de estudo e em que procuramos definir exatamente o que é a inteligência artificial…


1.1 O que é IA?

A IA tenta compreender e construir entidades inteligentes. Há quatro formas principais de abordá-la:

  Pensar como humanos Pensar racionalmente
Agir como humanos Teste de Turing Agente racional
Processo mental Modelagem cognitiva Leis do pensamento (lógica formal)

1.1.1 Agindo como humanos – O Teste de Turing

Proposto por Alan Turing (1950), avalia se um computador pode se passar por humano em uma conversa textual.

Para passar no teste, o sistema deve possuir:

  • Processamento de Linguagem Natural
  • Representação de Conhecimento
  • Raciocínio Automatizado
  • Aprendizado de Máquina
  • (Para o Teste de Turing Total):
    • Visão Computacional
    • Robótica

1.1.2 Pensando como humanos – Modelagem Cognitiva

  • Baseada em reproduzir os processos mentais humanos.
  • Utiliza:
    • Introspecção
    • Psicologia experimental
    • Neuroimagem funcional
  • Fortemente ligada à Ciência Cognitiva.
  • Exemplo: Newell e Simon criaram o GPS (General Problem Solver) e compararam os passos do programa com o pensamento humano.

1.1.3 Pensando racionalmente – Leis do pensamento

  • Origem na lógica formal aristotélica.
  • Desenvolvida com silogismos e lógica de primeira ordem.
  • Problemas enfrentados:
    • Representar conhecimento incerto é difícil.
    • Raciocínio lógico pode ser impraticável computacionalmente.

1.1.4 Agindo racionalmente – Agentes racionais

  • Agente racional: aquele que faz a melhor ação possível com base nas percepções e no conhecimento disponível.
  • Vantagens:
    • Mais geral que a lógica pura.
    • Possui fundamentação matemática sólida.
  • Limitações:
    • Racionalidade perfeita é computacionalmente inviável em muitos contextos.
    • Racionalidade limitada (bounded rationality) é uma alternativa prática.

1.3 História da Inteligência Artificial

Antes de 1950 – Antecedentes da IA

  • Antiguidade: Aristóteles formaliza silogismos, lógica como base do raciocínio.
  • Século XVII: Pascal e Leibniz desenvolvem calculadoras mecânicas.
  • Século XIX: Boole desenvolve a lógica booleana.
  • 1931: Kurt Gödel demonstra limites da lógica formal (teorema da incompletude).
  • 1936: Alan Turing define o modelo de computação universal.
  • 1943: McCulloch e Pitts criam o primeiro modelo computacional de um neurônio.
  • 1949: Donald Hebb propõe a hipótese de plasticidade sináptica (fundamento das redes neurais).
  • 1950: Turing publica “Computing Machinery and Intelligence”, propondo o Teste de Turing.

1956 – O nascimento oficial da IA

  • Dartmouth Conference: ponto de partida formal da IA.
    • Proposto por John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon.
    • McCarthy cunha o termo “Inteligência Artificial”.
  • Objetivo: construir máquinas que simulassem a inteligência humana.

1950s–1960s – Primeiros programas e otimismo

  • Logic Theorist (1955–56) – Newell & Simon: primeiro programa a provar teoremas matemáticos.
  • GPS (General Problem Solver) – simula raciocínio humano por metas.
  • Criação da linguagem LISP (1958) por John McCarthy, tornando-se padrão para IA por décadas.
  • Sistemas jogando damas, álgebra simbólica e resolução de problemas mostram promessas iniciais.

1970s – Primeiras decepções e o “Inverno da IA”

  • Expectativas não são cumpridas.
  • Problemas com:
    • Combinatorial explosion
    • Limitações de hardware
    • Falta de dados
  • Cortes de verbas em projetos governamentais nos EUA e Reino Unido.

1980s – Sistemas Especialistas

  • IA volta à tona com sistemas especialistas:
    • MYCIN (diagnóstico médico)
    • XCON (configuração de computadores)
  • Utilizam bases de regras com conhecimento codificado por especialistas.
  • Limitações:
    • Dificuldade de manutenção
    • Fraca generalização
    • Alto custo de aquisição de conhecimento

1990s – Aprendizado de Máquina e dados

  • Surgimento de algoritmos mais robustos para:
    • Redes neurais
    • Máquinas de vetores de suporte (SVM)
    • Árvores de decisão
  • Foco em aprendizado supervisionado e dados reais.
  • Crescimento da internet começa a fornecer grandes volumes de dados.

2000s–2010s – IA prática e ressurgimento definitivo

  • Avanços em:
    • Processamento de linguagem natural
    • Reconhecimento de fala e imagem
    • Sistemas de recomendação
  • Aplicações em:
    • Web (Google, Amazon)
    • Jogos (Deep Blue vence Kasparov em 1997; AlphaGo vence Lee Sedol em 2016)
    • Robótica e carros autônomos (DARPA Challenge)

2010s–hoje – Era do Deep Learning

  • Redes neurais profundas (Deep Learning) impulsionam o campo:
    • Frameworks: TensorFlow, PyTorch
    • Arquiteturas: CNNs, RNNs, Transformers
  • Grandes modelos de linguagem:
    • BERT (Google), GPT (OpenAI), LLaMA (Meta), entre outros.
  • Crescimento do uso em áreas como:
    • Medicina
    • Direito
    • Educação
    • Criatividade (arte, música, código)

1.5 Resumo Final

  • A IA é o estudo de agentes que percebem e agem no mundo.
  • Existem várias maneiras de defini-la: baseadas em pensamento ou comportamento, e em humanos ou racionalidade.
  • O livro foca na abordagem do agente racional como unificadora e cientificamente sólida.
  • A história da IA mostra um campo com ciclos de grande expectativa, desilusão e renascimento, até atingir o estágio atual de aplicações concretas e impacto global.