Também acredito que a IA não age por conta própria. O ChatGPT, por exemplo, na função de Deep Research (uma função de pesquisa e resposta mais aprofundada), quando você faz uma pergunta, aparece algo como se ele estivesse "pensando", quando, na verdade, ele está buscando informações, que foram imputadas por humanos. A IAs são treinadas com o que fornecemos a elas, para ter esses e outros comportamentos, mesmo que demonstrem ter alguma autonomia.
Cara, não mesmo, e eu nem to especulando, to afirmando mesmo.... todo mundo que é da área tecnica ou que pelo menos já tenha pesquisado sobre IA de forma mais profundo sabe que ela não pensa, apenas "embaralha" e reformula palavras daquilo que ela tem em sua base de conhecimento/treinamento ou do que encontrou na internet.
Mas... tu me fez pensar e quesitonar: mesmo que até hoje a gente não tenha nenhuma IA que consiga demonstrar qualquer sinal de "experiência subjetiva", ou seja... por mais que ela tentem simular comportamentos inteligentes, uma IA não tem "interioridade", certo!! Mas será que isso vai mudar em um futuro próximo (tipo de uns 5 anos)? Será que uma IA ainda vai ser capaz de raciocinar igual um humano em qualquer área até para aquelas que não foi treinada? isso sem alucinar, obviamente.
Seria legal... e sombrio, ver uma maquina consciente entre os humanos
No outro dia a falar com um amigo, abordamos o assunto numa analise que pode tornar as coisas "mais interessantes".
O modo atual de treinar o IA é dar ao IA um problema, ele vai explorando os vários caminhos para a solução, e os humanos vão dando as "palmadinhas nas costas" de parabéns quando escolhe o caminho certo.
Se assim, o objetivo do IA passa a ser receber o "biscoito", e ele começar a dar as respostas - seguindo o conhecimento que tem - que vão resultar sempre em um "biscoito", a informação que chega aos humanos ficará toda tendenciosa e menos assertiva.
Com os humanos a confiarem mais nessas informações, pode-se entrar num ciclo de informação errada ou distorcida da realidade, que poderá gerar problemas.
No fundo, o maior problema do IA é a forma como esta a ser treinada, que esta a ser treinada numa base primaria de agradar, do que ser funcional.
Esse método até pode resultar com um humano, mas o humano tem a racionalidade e com a experiencia não vai agir só nessa base. Já a maquina, só saberá agir assim, agradar para continuar a ser valorizada.