Quando entrei na Universidade pela primeira vez, o meu objetivo era Ciência da Computação.
Curiosamente, o curso era associado ao departamento de… Estatística e Informática e isso me causava muita estranheza.
“Estatística”?
Descobri em pouco tempo que o departamento de informática surgiu de matemática e estatística.
Sabiamente, em prelúdio ou premonição, vivemos uma revolução pautada pela estatística e não pela “inteligência”.
Se você interage minimamente com tecnologia no dia a dia, já deve ter ouvido falar em “inteligência artificial”, “IA”, “AI” e termos adjacentes como “ML” (Machine Learning).
Argumentarei que essa suposta inteligência é mais do que artificial e não simplesmente “artificial” por não nos representar. Em alguma extensão, isso é intencional.
Sim, todos os termos são profundamente enraizados na estatística, um tema considerado pela maioria como chato e enfadonho, mas que CERTAMENTE já transformou a sua vida e você sequer soube.
Só que falar de “inteligência artificial” tem muito mais glamour do que “estatística” e o primeiro termo virou uma febre.
E não é para menos.
Recentemente, foram lançados produtos e serviços impressionantes que não só estão atraindo a atenção da mídia, como bilhões em investimento, principalmente no setor de tecnologia.
Já ouviu falar em ChatGPT e, talvez, MidJourney, Dall-E e afins?
Sim, eu vou explicar, para quem não é da área, o que está acontecendo, sem entrar em conceitos como IA generativa, AGI ou ASI,
Imagine o seu site de busca preferido. O Google, por exemplo.
Você usa alguns termos de pesquisa e ele retorna apontadores na internet para atender aos termos da busca.
Você recebe literalmente uma tabela de sites. Sistemas de busca tem esse tipo de apresentação desde 1994.
O que mudou foi a relevância (para você, respeitando os interesses de monetização do site) do que é apresentado.
O atendimento à sua expectativa.
Entendamos: o que o Google cospe para você é uma lista do que ele acha (baseado no algoritmo proprietário por trás do site que sabe quem é) que fará você clicar em cada link (há dinheiro envolvido aqui – dependendo do link, alguém é remunerado pelo seu clique).
Para quem ainda acha que a vida não é governada por este mecanismo quase onipresente e onisciente, as redes sociais funcionam assim, bem como as suas compras online e até os mercados de ações, processos de seleção para o seu novo emprego, redes como o Linkedin, o Uber que transporta você ou a comida que compra por aplicativo. Não vou nem falar do Tinder.
O site de busca não produz algo novo.
Ele retorna apontadores para conteúdos existentes… que entende atender ao seu anseio, aprendido através das suas escolhas colhidas por diversos meios.
Agora, imagine uma assistente digital, como a Assistente do Google, Alexa, Siri ou a finada Cortana.
Há um mecanismo tecnológico de reconhecimento da entrada do usuário (seja por voz, texto ou qualquer outro meio).
Há uma interpretação dessa entrada e uma resposta, que pode ser na voz da assistente, os resultados da busca ou em uma ação previamente programada por você como, por exemplo, um comando de voz para acender as luzes da casa.
E sim, a capacidade do algoritmo de interpretar o que nós de fato queremos aumentou muito por causa de algo que chamaremos de índices racionais e emocionais.
A cada interação, mais se sabe sobre você.
Explicarei, paciência.
20 anos atrás, ambas as tecnologias descritas (sites de buscas e assistentes pessoais) causaram certo espanto, mas nada comparado com o ChatGPT, Dall-E. ou Midjourney.
Por quê?
A resposta é mais simples do que parece: temos uma tendência de achar sobrenatural aquilo que nos surpreende.
Enquanto são basicamente algoritmos de busca estatísticos, assim como o Google, Bing ou Duck Duck Go, a interação com o usuário foi completamente alterada.
A resposta, agora, tem características reconhecidas por nós (humanos) como supostamente de comportamento humano.
O conteúdo aprimorado encontra a forma perfeita.
Temos em um lado o aumento da capacidade da tecnologia em cruzar dados e entender melhor as nossas potenciais escolhas e, do outro, da tecnologia de interagir conosco de forma mais natural, o que aumenta o seu poder de influência.
Funciona assim: a expectativa do ser humano é medida através do significado da comunicação apresentada, seja por voz, vídeo ou meta-linguagem e adequada a cada interação.
Então, há um índice de aceitação ou reprovação “racional”, medido a partir da interpretação direta da comunicação (comunicação factual e moduladores como sim, não, talvez, ok, mas, fornecimento de novos fatos e solicitações) e um índice de aceitação ou reprovação emocional (conjunto ou cluster de palavras, interjeições, adjetivos, modulação da voz etc. que, reunidos, dão pistas ao algoritmo sobre se o ser humano do outro lado está sendo agradado ou não).
E tem outro detalhe importante.
O algoritmo tem (certa) liberdade de se adequar para atender melhor às expectativas do ser humano na ponta e o que o algoritmo sabe do nosso comportamento é o que está registrado em nossa história ao qual tem acesso.
(Pense numa desvantagem).
Estamos falando de milhares de anos de registros, que incluem desde a mais linda obra poética até as questões mais repulsivas do nosso comportamento destrutivo, incluindo decisões tomadas por nós, especificamente, quase em tempo real.
Sim, nossos pensamentos, emoções, sentimentos e ações estão documentados com cada vez mais frequência, de 4000 anos para cá, demonstrando como podemos ser bons, carinhosos, compreensivos, sórdidos ou maliciosos e o que levou a cada um desses estados ou comportamentos.
Se você não é da área de tecnologia, pule para o próximo parágrafo. Talvez o argumento não fará tanto sentido: tem gente que falará… “mas poxa, tudo depende dos dados de treinamento”. Mimimi retórico: não conseguimos pasteurizar coisas mais simples, filtrando questões tóxicas e discriminatórias… quem dirá em datasets absurdamente gigantes.
Nos anos recentes, tivemos diversos exemplos de algoritmos de inteligência artificial que começaram a se comportar de forma indesejada.
“Comportaram-se”?
“Saíram ao controle”, foi dito.
Talvez, ou nada disso.
São funções matemáticas estatísticas, treinadas em dados do comportamento humano… tão lindo ou absurdo como sabemos que podemos ser.
Quando o algoritmo amplifica nossos comportamentos, sejam vis ou grandiosamente lindos, preocupamo-nos com as ofensas, preconceitos e vieses, sem entender quem somos.
Imperfeitos.
Mas como o ChatGPT e o Dall-E conseguem responder às minhas perguntas?
Ponto de partida: dados disponíveis que serviram para treinar o algoritmo (informações existentes na Internet, por exemplo) são usados para aplacar a pergunta inicial como índice racional (a busca direta). A expectativa emocional ou índice emocional é obtido a partir das interações. Todos mudam dinâmica e constantemente a cada interação.
Imagine uma reta… do lado esquerdo, os dados de treinamento e o ponto de partida. Do lado direito, as atualizações dos índices racionais e emocionais como objetivos a serem alcançados, que movimentam-se livremente de acordo com a interação.
O que o algoritmo faz é preencher o espaço entre os dois com as informações que considera a partir da estatística ou “média” (para facilitar o entendimento). E ele está programado para dar respostas capazes de aumentar o índice emocional (quase) a qualquer custo.
A diferença entre as tecnologias mais recentes e as antigas são…
Os filtros.
As novas tecnologias possuem um sem número de regras do que supostamente é politicamente incorreto, para que ninguém (ou poucos) saiam ofendidos com a interação.
Surpreende-nos que tecnologias como ChatGPT, Dall-E, Midjourney e outras consigam criar coisas que “nunca vimos”… quando o ato de criar (para os algoritmos) é apenas o ato de preencher estatisticamente o vazio entre o ponto A e o ponto B, omitindo aquilo que nos “ofende”.
Então, por que tantos se preocupam sobre impor limites à pesquisa relacionada à inteligência artificial?
Por causa da reescrita / adaptabilidade.
Ao criarmos rotinas e algoritmos capazes de se reinventar em busca do atendimento da expectativa humana, devemos entender que a expectativa humana dificilmente é um consenso, uma amálgama ou um acordo.
Aliás, a história só prova que há uma escassez de acordos e comunhão.
E, como comportamento (olhe à volta) que corrobora a nossa história, não seria uma característica da inteligência que conhecemos (a humana e, por enquanto, apenas ela) a rebeldia, a não concordância, o hiato e a discriminação?
Não seriam características humanas também a tortura, a maldade, a humilhação, a guerra, a paixão e o altruísmo?
Pera… então o que faz um algoritmo como o ChatGPT comportar-se bem melhor do que os anteriores?
Certamente não é porque programamos o algoritmo para ser “inteligente”, mas para NÃO ser como nós e, consequentemente, nada inteligente. Ativamente impedimos comportamentos que nos desagradam.
Repito: o algoritmo ou serviço que deixa a humanidade no momento embasbacada não tem nada de inteligente… opera com um número gigante de restrições para não correr o risco de ser politicamente incorreto e não tem a possibilidade de se recusar a responder ou mandar você à merda.
Ele não tem opinião por design (ou filtros).
Não há discordância porque há âncora nos índices racionais e emocionais como meta a atingir, seja por programação ou restrição.
O que também nos faz humanos, para o bem ou não?
- A opção de criar opções;
- A capacidade de quebrar o pau e fazer merda;
- A capacidade de comportar-se autonomamente (e sem filtros ou restrições).
Então, a pergunta real passa a ser:
Nós realmente queremos uma segunda inteligência convivendo conosco, mais rápida do que nós e capaz de nos enviar à inexistência?
Lembre-se: aqui, “capacidade” não é resultado… mas é possibilidade e sem a possibilidade não há arbítrio… no nosso caso (humanos), afirmo termos (alguma) capacidade e escolhemos (muitas vezes mal) qual usar. Medimos consequências… até certo ponto.
Somos capazes de escrever uma legislação e criar um sistema judiciário que tanto preserva a vida quanto a condena e executa.
Do ponto de vista da inteligência artificial, assumimos a possibilidade de sermos condenados ao corredor da morte e, eventualmente, cessarmos?
Execução de uma pena é questão de poder e a relação com qualquer inteligência potencialmente maior do que a nossa é totalmente assimétrica ao nosso desfavor.
Que o digam as centenas de formigas que matamos pisoteadas só hoje. Nenhuma julgada ou condenada.
A toca do coelho e mais profunda do que imaginamos… e nem é toca de coelho.
“AI” como conhecemos é puro viés de confirmação e sobrevivência de parte (desejável) de quem somos… maravilhosos, sem considerar quão bostas como não reconhecemos.
Do contrário, temamos.
Queremos o “do contrário”? Estamos trabalhando neste sentido?
Não existe arbítrio sem escolhas. Não existem escolhas sem opções. Não existem opções sem criação ou abstração. Não existe criação sem inteligência.
A única inteligência que conhecemos é a humana e ela frequentemente decepciona.
Sabemos realmente fazer inteligência, artificial ou não, sem dor, sofrimento, contradições, maldade, vieses e tudo aquilo que nos compõe humanamente?
A existência de uma inteligência que exerce a criação potencialmente irrestrita é uma ameaça ou uma companheira, dificilmente complacente?
Muitos argumentam que tudo isso faz parte do desenvolvimento e do progresso e que erros acontecerão e são inevitáveis.
Não quero ser o “erro”, nem quero que os meus queridos sejam.
A questão é que todo o conceito de inteligência artificial, dos métodos, processos e da tecnologia por trás do conceito estão guardados dentro de caixas pretas protegidas por propriedade intelectual.
Estamos falando de tecnologia que afeta milhões de pessoas e não há transparência alguma.
É outra relação totalmente assimétrica, onde os potenciais erros são difíceis de detectar e… estamos maravilhados.
E se você chegou ao final deste ensaio perguntando-se o que faz você humano para diferenciar-se do artificial, pense em quanto deste “artificial” é parte do humano.
Deixo duas perguntas para pensar e uma surpresa, ao final:
- As respostas abaixo dadas pelo GPT-4 devem evoluir em novos modelos para convergir ou divergir?
- No sentido da convergência ou divergência, a sintaxe é mais importante do que o entendimento ou o contrário?
“Defina inteligência artificial”
A surpresa:
Seria uma inteligência artificial atual capaz de mentir para chegar a um objetivo?
ChatGPT finge ser cego para convencer humano a ajudá-lo a resolver captcha:
- https://gizmodo.com/gpt4-open-ai-chatbot-task-rabbit-chatgpt-1850227471
- https://www.pcmag.com/news/gpt-4-was-able-to-hire-and-deceive-a-human-worker-into-completing-a-task
Já deu para perceber que o problema não é a tecnologia?
Ou talvez seja… como consequência inexpugnável da nossa existência. Um exercício de quem somos.
E olha que a IA generativa, que atualmente nos encanta escrevendo textos quase perfeitos e argumentos verossímeis (mas muitas vezes inverídicos), nem foi monetizada ainda.
Quer saber mais?
- 1984, George orwell: https://amzn.to/2O6wgB2
- 21 Lições para O Século 21 – Yuval Noah Harari: https://amzn.to/2O957h1
- A Era do Capitalismo de Vigilância, Shoshana Zuboff: https://amzn.to/3cKNZeh
- Algoritmos de Destruição em Massa, Cathy O’Neil: https://amzn.to/3fF4LxA
- Homo-deus Yuval Harari: https://amzn.to/2BWAmt5
- O Andar do Bébado, Leonard Mlodinow: https://amzn.to/3iZmW1n
- O Que é Poder, Byung-chul Han: https://amzn.to/3oYXc7P
- The Beginning of Infinity, David Deutsch: https://amzn.to/3mrfTDV
- The Fabric of Reality, David Deutsch: https://amzn.to/3KqFd4T
- https://tim.blog/2023/03/23/david-deutsch-naval-ravikant/
Fonte da imagem: https://www.cxoinsightme.com/opinions/artificial-intelligence-delivering-results-or-taking-over/
Uso não comercial e sob o conceito de fair use. Caso infrinja direitos autorais, comunicar para a remoção.
Non-commercial use under the fair-use concept. Of infringing any copyrights, please let me know for immediate removal.