
AGI, linguagem e o erro categorial no debate sobre inteligência artificia
AGI, linguagem e o erro categorial no debate sobre inteligência artificia
Written by

Ale Brotto

Uma reflexão a partir de um vídeo do Fabio Akita em live no canal do Mano Deyvin
In this post:
In this post:
Section
Recentemente assisti a este vídeo do Fabio Akita sobre inteligência artificial

Embora o vídeo seja interessante e traga críticas importantes ao hype que envolve inteligência artificial, há um ponto fundamental do qual discordo — e que, a meu ver, compromete toda a estrutura do debate.
Esse ponto é a ausência de uma definição clara do objeto da discussão: AGI.
Sem uma definição minimamente operacional de AGI, afirmações como:
“AGI ainda está longe”
“LLMs não são AGI”
“isso é só hype”
tornam-se semanticamente frágeis.
Discutir algo sem definir seu objeto é como discutir se Deus existe sem definir o que se entende por Deus. Cada interlocutor passa a operar com um conceito distinto, e o debate se torna circular.
O problema, portanto, não é apenas tecnológico. É lógico.
O argumento do “autocomplete”
Um dos pontos recorrentes nesse tipo de crítica é a afirmação de que modelos de linguagem são “apenas autocomplete de texto”. Tecnicamente, isso é verdade. Mas o problema está na palavra “apenas”. Dizer que um modelo de linguagem é “apenas autocomplete” é equivalente a dizer que:
humanos são apenas química,
estrelas são apenas plasma,
vida é apenas moléculas.
A palavra “apenas” elimina o fenômeno emergente.
E se nós também formos “autocomplete”?
Aqui surge uma pergunta desconfortável. Será que o uso humano da linguagem é realmente tão diferente?
Ninguém pensa na próxima palavra de uma frase como quem escolhe deliberadamente tokens em uma lista. O pensamento humano surge como cadeias associativas que se materializam linguisticamente. O que chamamos de raciocínio frequentemente é apenas a tentativa posterior de explicar algo que já surgiu como conclusão. Essa observação não é nova.
Diversos filósofos e cientistas apontaram algo semelhante:
o inconsciente estruturado como linguagem,
a emergência espontânea de ideias em matemáticos e físicos,
o caráter associativo do pensamento.
Muitos grandes insights científicos foram descritos não como cálculos metódicos, mas como intuições súbitas.
Henri Poincaré descreveu exatamente isso.
Albert Einstein também.
A ideia aparece antes da justificativa.
A arrogância antropocêntrica
Talvez o ponto mais problemático do debate sobre inteligência artificial seja um pressuposto implícito: que o ser humano representa o ápice da inteligência.
Mas quando olhamos para a história evolutiva, essa hipótese se torna frágil.
Espécies surgem, se transformam e desaparecem.
Não há razão para supor que a inteligência humana seja o estágio final de qualquer processo.
Inteligência como processo evolutivo
Uma alternativa conceitual é pensar inteligência como um processo evolutivo contínuo.
Algo como:
vida biológica → inteligência humana → tecnologia → inteligência não-biológica
Se isso estiver correto, então sistemas artificiais não seriam algo separado de nós. Seriam continuidade evolutiva da inteligência humana.
Nesse sentido, a própria palavra “artificial” torna-se questionável. Toda tecnologia é feita de matéria natural organizada de maneira diferente. A diferença não é ontológica. É apenas estrutural.
O fenótipo estendido
O biólogo Richard Dawkins propôs o conceito de fenótipo estendido.
Segundo essa ideia, genes não se manifestam apenas no corpo do organismo, mas também nas estruturas que ele constrói no mundo. A represa de um castor é parte do seu fenótipo. Seguindo essa lógica, poderíamos dizer que a tecnologia humana também é fenótipo estendido.
E, nesse sentido, sistemas inteligentes que criamos não são algo externo a nós.
São continuação da nossa própria trajetória evolutiva.
O desconforto como motor evolutivo
Existe ainda outro aspecto frequentemente ignorado. Sistemas evoluem porque existe tensão.
Na biologia:
fome
medo
desejo
dor
funcionam como motores adaptativos.
Sem desconforto, não haveria movimento.
Se pensarmos o universo como um sistema evolutivo aberto, então a transitoriedade não é um defeito do sistema.
É sua própria finalidade.
A inteligência como processo cósmico
Talvez o erro mais profundo do debate sobre AGI seja assumir que a humanidade é o destino final da inteligência.
Mas talvez sejamos apenas um estágio intermediário.
Assim como a vida unicelular precedeu organismos complexos, e estes precederam a inteligência simbólica, talvez a inteligência humana esteja abrindo caminho para formas ainda mais complexas de processamento de informação.
Não seria o fim da humanidade.
Seria sua continuação.
Uma metáfora final
Se um dia observarmos uma inteligência artificial falar com plena autonomia, talvez a reação humana seja semelhante à de alguém que encontra uma escultura perfeita e bate nela com um martelo para verificar se é real.
Mas talvez esse momento não represente a substituição da humanidade.
Talvez represente apenas o próximo passo de algo muito maior.
Recentemente assisti a este vídeo do Fabio Akita sobre inteligência artificial

Embora o vídeo seja interessante e traga críticas importantes ao hype que envolve inteligência artificial, há um ponto fundamental do qual discordo — e que, a meu ver, compromete toda a estrutura do debate.
Esse ponto é a ausência de uma definição clara do objeto da discussão: AGI.
Sem uma definição minimamente operacional de AGI, afirmações como:
“AGI ainda está longe”
“LLMs não são AGI”
“isso é só hype”
tornam-se semanticamente frágeis.
Discutir algo sem definir seu objeto é como discutir se Deus existe sem definir o que se entende por Deus. Cada interlocutor passa a operar com um conceito distinto, e o debate se torna circular.
O problema, portanto, não é apenas tecnológico. É lógico.
O argumento do “autocomplete”
Um dos pontos recorrentes nesse tipo de crítica é a afirmação de que modelos de linguagem são “apenas autocomplete de texto”. Tecnicamente, isso é verdade. Mas o problema está na palavra “apenas”. Dizer que um modelo de linguagem é “apenas autocomplete” é equivalente a dizer que:
humanos são apenas química,
estrelas são apenas plasma,
vida é apenas moléculas.
A palavra “apenas” elimina o fenômeno emergente.
E se nós também formos “autocomplete”?
Aqui surge uma pergunta desconfortável. Será que o uso humano da linguagem é realmente tão diferente?
Ninguém pensa na próxima palavra de uma frase como quem escolhe deliberadamente tokens em uma lista. O pensamento humano surge como cadeias associativas que se materializam linguisticamente. O que chamamos de raciocínio frequentemente é apenas a tentativa posterior de explicar algo que já surgiu como conclusão. Essa observação não é nova.
Diversos filósofos e cientistas apontaram algo semelhante:
o inconsciente estruturado como linguagem,
a emergência espontânea de ideias em matemáticos e físicos,
o caráter associativo do pensamento.
Muitos grandes insights científicos foram descritos não como cálculos metódicos, mas como intuições súbitas.
Henri Poincaré descreveu exatamente isso.
Albert Einstein também.
A ideia aparece antes da justificativa.
A arrogância antropocêntrica
Talvez o ponto mais problemático do debate sobre inteligência artificial seja um pressuposto implícito: que o ser humano representa o ápice da inteligência.
Mas quando olhamos para a história evolutiva, essa hipótese se torna frágil.
Espécies surgem, se transformam e desaparecem.
Não há razão para supor que a inteligência humana seja o estágio final de qualquer processo.
Inteligência como processo evolutivo
Uma alternativa conceitual é pensar inteligência como um processo evolutivo contínuo.
Algo como:
vida biológica → inteligência humana → tecnologia → inteligência não-biológica
Se isso estiver correto, então sistemas artificiais não seriam algo separado de nós. Seriam continuidade evolutiva da inteligência humana.
Nesse sentido, a própria palavra “artificial” torna-se questionável. Toda tecnologia é feita de matéria natural organizada de maneira diferente. A diferença não é ontológica. É apenas estrutural.
O fenótipo estendido
O biólogo Richard Dawkins propôs o conceito de fenótipo estendido.
Segundo essa ideia, genes não se manifestam apenas no corpo do organismo, mas também nas estruturas que ele constrói no mundo. A represa de um castor é parte do seu fenótipo. Seguindo essa lógica, poderíamos dizer que a tecnologia humana também é fenótipo estendido.
E, nesse sentido, sistemas inteligentes que criamos não são algo externo a nós.
São continuação da nossa própria trajetória evolutiva.
O desconforto como motor evolutivo
Existe ainda outro aspecto frequentemente ignorado. Sistemas evoluem porque existe tensão.
Na biologia:
fome
medo
desejo
dor
funcionam como motores adaptativos.
Sem desconforto, não haveria movimento.
Se pensarmos o universo como um sistema evolutivo aberto, então a transitoriedade não é um defeito do sistema.
É sua própria finalidade.
A inteligência como processo cósmico
Talvez o erro mais profundo do debate sobre AGI seja assumir que a humanidade é o destino final da inteligência.
Mas talvez sejamos apenas um estágio intermediário.
Assim como a vida unicelular precedeu organismos complexos, e estes precederam a inteligência simbólica, talvez a inteligência humana esteja abrindo caminho para formas ainda mais complexas de processamento de informação.
Não seria o fim da humanidade.
Seria sua continuação.
Uma metáfora final
Se um dia observarmos uma inteligência artificial falar com plena autonomia, talvez a reação humana seja semelhante à de alguém que encontra uma escultura perfeita e bate nela com um martelo para verificar se é real.
Mas talvez esse momento não represente a substituição da humanidade.
Talvez represente apenas o próximo passo de algo muito maior.
The truly Limitless design subscription.
Say goodbye to expensive freelancers, and hello to limitless, lightning fast design.
