Capítulo 1 — Inteligência Artificial

A IA erra?

Um velho ditado já diz: errar é humano.

Bem, se errar é humano, e nós estamos fazendo “cérebros” que vão imitar o cérebro humano, nada mais natural do que esses “cérebros” também errarem, não é mesmo?

Inclusive, vamos ter que atualizar o ditado para “errar é humano e IA”.

Mas, falando sério, o que acontece é o seguinte:

Uma automação não erra.

Quando uma automação erra, é porque ela realmente falhou em seu propósito.

Algum bug aconteceu, alguma coisa de muito errado aconteceu.

É como uma calculadora errar uma conta.

Uma automação errar uma conta é algo que não deveria acontecer, e se está acontecendo, é porque existe um defeito gravíssimo.

Já uma IA erra, e erra de forma muito mais comum.

De certa forma, podemos até esperar que aconteça, de forma eventual.

Porque quando você faz o exercício de pensar, ele envolve pensar sobre coisas que você não sabe.

É um exercício de inexatidão.

Lembra do exemplo que eu falei do xadrez?

Quando restam poucas peças no tabuleiro, já temos automações que conseguem mapear todas as movimentações possíveis e jamais serão derrotadas.

Já nos momentos iniciais do jogo, as possibilidades são tantas que não conseguimos mapear e construir automações que nunca vão errar.

Dessa forma, temos que utilizar o cérebro humano, ou construir IAs que pensam igual ao humano e que não varrem todas as possibilidades, que eventualmente cometem algum tipo de erro, mas que ainda assim jogam de forma criativa.

E isso é suficiente para gerar um bom resultado.

No jogo da velha, a história é outra.

O jogo da velha é um jogo mais simples.

Nele, conseguimos fazer uma automação que jamais pode ser vencida, pois ela varre todas as possibilidades possíveis.

Esses são os computadores tradicionais, eles são exatos.

Já problemas complexos, como jogar xadrez ou desenhar um cachorro, não podem ser resolvidos por essa exatidão, pois as possibilidades são gigantescas e impossíveis de mapear.

Mas quando você monta uma inteligência artificial, ou seja, quando você monta uma máquina que replica o pensamento humano, algo interessante ocorre.

Ela consegue resolver esses problemas que máquinas tradicionais não resolveriam, por estar pensando de um jeito que o ser humano pensa.

Mas, assim como o cérebro humano, você tem táticas para corrigir e evitar erros na IA.

Por exemplo, quando pedimos que um piloto de avião faça a conferência de um checklist de processos em uma prancheta antes de decolar, estamos reconhecendo que o ser humano pode errar.

A prancheta, nesse caso, funciona como um mecanismo de automação analógica, que ajuda o piloto a seguir todos os passos necessários, reduzindo a chance de erros por esquecimento ou distração.

Então, em vez de simplesmente esperar que o piloto não erre, criamos um sistema que contorna as limitações da cognição humana.

O mesmo deve ser feito com a IA.

Você não pode esperar que a IA não erre.

O que você tem que fazer é adotar jeitos para mitigar os erros da IA e táticas para contorná-los, já prevendo que eles vão acontecer.

Seja utilizando redundância, revisão aos pares, mecanismos de automação, treinamentos, sistemas mais organizados, ambientes menos propícios a erros, escolhas corretas de IA, entre várias outras técnicas e táticas que vamos estar conversando com detalhes no capítulo 3.

↑ Sumário