Freemason

Inteligência Artificial: definição, benefícios e ameaças

✍️ Desconhecido 📅 12/05/2026 👁️ 3 Leituras

mãos humanas e de robot, Inteligência Artificial

Em todo o lado, todos os dias, somos convidados a interessar-nos pela Inteligência Artificial (IA), a utilizá-la, a compreender os seus mistérios e as suas regras. Pareceu-nos essencial lançar alguma luz sobre este assunto que, desde há anos, faz parte do nosso quotidiano. Para começar, temos de denunciar o que foi até há pouco tempo um grave erro de tradução: a expressão “inteligência artificial” que utilizamos em francês pretende traduzir a expressão anglo-saxónica “intelligence artificielle“. Mas “intelligence” em inglês nunca significou “inteligência”. A inteligência é a esperteza. A palavra inglesa “intelligence” significa inteligência, informação, como o demonstram os nomes dos serviços secretos britânicos, o Intelligence Service ou a Central Intelligence Agency americana.

Mas a Inteligência Artificial evoluiu consideravelmente num curto espaço de tempo, e hoje podemos falar sem contradição de inteligência, no sentido da capacidade de aprender, compreender ou adaptar-se a novas situações, ou de todas as funções mentais cujo objetivo é o conhecimento concetual e racional de uma realidade que é complexa por natureza.

Estamos, portanto, a falar de sistemas capazes de processar quantidades extremamente grandes de dados de forma extremamente rápida, ao ponto de poderem realizar tarefas delicadas ou difíceis, como reconhecer rostos ou vozes, conduzir um veículo, etc.

Mesmo que a ideia seja fazer com que uma máquina imite as capacidades cognitivas de um ser humano, convém recordar que os sistemas hoje conhecidos e funcionais são designados por Inteligências Artificiais “fracas” ou “moderadas”, enquanto alguns se esforçam, sem dúvida, por desenvolver sistemas que estão hoje no domínio da pura ficção científica, as chamadas Inteligências Artificiais “fortes”, que seriam dotadas de uma forma de autoconsciência.

Esta hipótese de Inteligência Artificial autónoma consciente contra o ser humano gera receios que não permitem avaliar o que está realmente em jogo, como o impacto nos direitos fundamentais de processos de decisão baseados unicamente em modelos matemáticos, sem referência à ética, no sentido moral.

Por conseguinte, é difícil desenvolver quadros regulamentares neste contexto.

Para dar uma imagem exacta do que é possível hoje, é preciso dizer uma palavra sobre a aprendizagem automática, ou seja, a capacidade do sistema para se aperfeiçoar a si próprio.

Para além do que era possível com os primeiros sistemas periciais, já não se trata de um informático que codifica as regras à mão, mas de deixar que os computadores as descubram por correlação e classificação, com base numa quantidade maciça de dados.

Por outras palavras, o objetivo da aprendizagem automática não é propriamente adquirir conhecimentos já formalizados, mas sim compreender a estrutura dos dados e integrá-los em modelos que permitam automatizar tarefas até agora consideradas complexas. Tomemos um exemplo simples para explicar esta possibilidade: durante 10 anos, em diferentes cidades, qual foi o número de gelados vendidos e qual foi a temperatura do ar?

A máquina deduzirá um modelo que pode depois ser utilizado para resolver questões como: se estiverem 25º, quantos gelados podemos esperar vender em tal e tal cidade?

No entanto, a intervenção humana continua a ser essencial, por exemplo, na seleção dos dados de treino, na identificação de eventuais enviesamentos ou, sempre que possível, na distinção entre correlações que podem ser a causa de um fenómeno.

Continuando com o exemplo do gelado, se num determinado local se vende muito mais gelado, será apenas devido à temperatura ou será necessário ter em conta a presença de uma geladaria muito boa?

De facto, a questão pode ser mais complexa e o número de factores susceptíveis de influenciar o consumo real de gelado pode ser multiplicado.

Por último, os impactos sociais, éticos e nos direitos fundamentais não devem ser construídos com base no receio de que a aprendizagem automática conduza à emergência de uma forma de consciência artificial nos próximos anos, mas sim com base na preocupação de que o preconceito, a discriminação, os ataques à privacidade, à liberdade de expressão ou de consciência, e mesmo à própria vida, possam ser a expressão de uma conceção da sociedade que a reduz a um modelo matemático.

Voltemos à inteligência artificial, definida como a utilização de máquinas capazes de simular a inteligência humana. Já em 1949, Warren Weaver publicou um memorando sobre a tradução automática de línguas, que sugeria que uma máquina poderia efetuar uma tarefa que, normalmente, é da competência da inteligência humana.

Historicamente, a ideia de inteligência artificial parece ter surgido na década de 1950, quando Alan Turing se interrogou sobre a possibilidade de uma máquina “pensar”.

No artigo “Computing Machinery and Intelligence”, publicado em Outubro de 1950, Turing explorou este problema e propôs uma experiência (actualmente conhecida como teste de Turing) para descobrir quando é que uma máquina se tornaria “consciente”.

Voltando às definições dadas pelos criadores da Inteligência Artificial citemos a primeira delas:

O primeiro é John McCarthy, um professor do MIT, que define a Inteligência Artificial da seguinte forma:

“É a ciência e a engenharia de fazer máquinas inteligentes, em particular programas de computador inteligentes. Está relacionada com a tarefa semelhante de utilizar computadores para compreender a inteligência humana, mas a Inteligência Artificial não precisa de se limitar a métodos que são biologicamente observáveis.”

A esta definição, que alguns consideram demasiado aberta e confiante, podemos contrapor a definição proposta por Marvin Lee Minsky, da Carnegie Mellon, também um dos criadores da Inteligência Artificial, Minsky, acredita que

“a construção de programas de computador que executam tarefas que, de momento, são mais satisfatoriamente realizadas por seres humanos porque exigem processos mentais de alto nível, como a aprendizagem perceptiva, a organização da memória e o raciocínio crítico”.

Minsky explica que a Inteligência Artificial tem tanto o lado “artificial”, conseguido através da utilização de computadores ou de processos electrónicos elaborados, como o lado da “inteligência”, associado ao seu objectivo de imitar o comportamento.

Esta imitação pode ter lugar no raciocínio, por exemplo em jogos ou na matemática, na compreensão de línguas naturais, na percepção: visual, por exemplo a interpretação de imagens e cenas, percepção auditiva e, portanto, a compreensão da linguagem falada, ou através de outros sensores, como o controlo de um robô num ambiente desconhecido ou hostil.

Mas Minsky escreveu a sua definição em 1961, há 64 anos… Vale a pena notar, em particular, que certas definições de Inteligência Artificial variam actualmente em dois pontos fundamentais, quanto mais não seja devido ao enorme aumento do poder de computação.

Quando começaram a ser utilizados, os computadores mais potentes podiam efectuar até 740.000 operações por segundo. Nessa altura, estes computadores eram utilizados principalmente para processamento de texto e cálculos simples. Actualmente, os supercomputadores podem realizar 93 milhões de mil milhões de operações por segundo!

No entanto, há que distinguir sempre entre as definições que insistem em que a Inteligência Artificial deve ter todas as aparências de inteligência humana ou racional e as que insistem em que o funcionamento interno do sistema de Inteligência Artificial deve também assemelhar-se ao de um ser humano e ser pelo menos tão racional.

Há também alguns desempenhos perturbadores, como o que permitiu ao computador Deep Blue vencer Garry Kasparov no xadrez, numa desforra de seis jogos, em Maio de 1997.

O facto é que, desde 2015, o sector da inteligência artificial tem procurado responder a quatro desafios: percepção visual, compreensão da linguagem natural escrita ou falada, análise automática da linguagem e tomada de decisões autónoma.

Por fim, a produção e a organização de uma grande quantidade de dados de qualidade, ou seja, dados correlacionados, completos, qualificados, com fontes, datados e históricos, é outro desafio.

Assim, é evidente que a capacidade de dedução e de generalização pertinente de um computador, a partir de uma pequena quantidade de dados ou de um pequeno número de acontecimentos, é um outro objectivo mais longínquo e que ninguém pode garantir que será atingido.

Há 21 anos, em 2004, o Singularity Institute lançou uma campanha na Internet chamada 3 Laws Unsafe (3 Leis Inseguras), para aumentar a consciencialização sobre a inadequação das três leis de Asimov antes do lançamento do filme I, Robot.

Se não leu – ou se já se esqueceu – as obras de Isaac Asimov, deixe-me recordar-lhe as três leis da robótica, formuladas em 1942, há mais de 80 anos:

  • Um robô não pode causar danos a um ser humano ou, mantendo-se passivo, permitir que um ser humano seja exposto ao perigo.
  • Um robô deve obedecer às ordens que lhe são dadas por um ser humano, a menos que essas ordens entrem em conflito com a Primeira Lei.
  • Um robô deve proteger a sua existência, desde que essa protecção não entre em conflito com a Primeira ou a Segunda Lei.

Não ficará surpreendido com o facto de precisarmos agora de dar um passo em frente.

Entre 2014 e 2015, após o rápido desenvolvimento da aprendizagem profunda, alguns cientistas e membros da comunidade de alta tecnologia temeram que a inteligência artificial acabasse por ultrapassar o desempenho da inteligência humana. Entre eles estavam o astrofísico britânico Stephen Hawking, o fundador da Microsoft, Bill Gates, e até o director executivo da Tesla, Elon Musk.

No entanto, em Janeiro de 2018, modelos de inteligência artificial desenvolvidos pela Microsoft e pela Alibaba conseguiram vencer os humanos num teste de leitura e compreensão. Sem dúvida, o processamento de linguagem natural imita a compreensão humana de palavras e frases e permite que os modelos de aprendizagem automática processem grandes quantidades de informação antes de darem respostas exactas às perguntas que lhes são colocadas.

Em Fevereiro de 2019, o instituto de investigação OpenAI anunciou a criação do programa de inteligência artificial GPT-2, capaz de gerar textos considerados suficientemente realistas para representar um perigo. Se o software for utilizado com intenções maliciosas, pode gerar notícias falsas credíveis. Talvez não saiba, mas o Open AI está preocupado e optou por não tornar público o código-fonte do programa.

O que é que nós pensamos?

Desde 1970, o rácio do número de comparações por segundo entre o computador e o cérebro mudou completamente. O hardware está agora disponível…

Mas a Inteligência Artificial ainda não pode, e talvez nunca venha a poder, explicar todo o conhecimento necessário para resolver um problema complexo. Alguns conhecimentos ditos implícitos são adquiridos através da experiência e são difíceis de formalizar. Acima de tudo, está a surgir um outro tipo de complexidade: a complexidade estrutural.

Como podemos ligar módulos especializados para processar um determinado tipo de informação, por exemplo, um sistema de reconhecimento de padrões visuais, um sistema de reconhecimento da fala, um sistema ligado à motivação, à coordenação motora, à linguagem, etc.?

Se a questão se limitar à resolução de uma sequência de operações matemáticas, mesmo que longa, a inteligência artificial “geral” correspondente pode ser distribuída da mesma forma que os computadores portáteis dos banqueiros, que podem dizer imediatamente sim ou não.

O mesmo não se pode dizer da chamada inteligência artificial forte, que se refere a uma máquina capaz não só de produzir comportamentos inteligentes, nomeadamente modelar ideias abstractas, mas também de experimentar uma impressão de consciência real, “sentimentos reais” e até “uma compreensão do seu próprio raciocínio“.

Ao contrário da inteligência artificial geral, a inteligência artificial forte envolve noções filosóficas de consciência.

Dito isto, não existe uma definição consensual de consciência para uma IA.

A neurociência diz-nos que a consciência tem uma base biológica e, portanto, material, embora os cientistas não vejam, em geral, qualquer obstáculo teórico à criação de uma inteligência consciente numa base material que não seja biológica.

De acordo com os defensores da IA forte, embora não existam atualmente computadores ou algoritmos tão inteligentes como os seres humanos, ninguém pode afirmar que isso nunca acontecerá. Por outras palavras, não haveria limites funcionais, apenas limites ligados à capacidade humana de conceber o software adequado, ou seja, um programa, uma base de dados, etc. Os defensores desta possibilidade afirmam que não há limite para o número de algoritmos que podem ser desenvolvidos. Os defensores desta possibilidade garantem-nos que será possível com os computadores.

A noção de símbolo deve ser tomada aqui num sentido lato, incluindo técnicas conexionistas como as redes neuronais, que são basicamente definidas por símbolos. Esta posição é apoiada por movimentos como o computacionalismo. Mas há muitos outros que têm uma visão completamente diferente. Estes especialistas consideram que uma inteligência artificial forte (ou seja, dotada de uma espécie de consciência) não é possível por três razões:

Acima de tudo, o pensamento não é um fenómeno que possa ser calculado por processos discretos e finitos. A consciência é, portanto, necessária para aceder à inteligência, mas será que um sistema informático só é capaz de a simular, sem a possuir de facto?

Este é o conceito filosófico de zombie, ou seja, um ser física e exteriormente indistinguível de um ser consciente, tanto em termos de comportamento como de constituição física, mas que, no entanto, não tem consciência da sua existência ou do mundo, nem sentimentos ou experiências pessoais. Embora se comportem como se estivessem a viver emoções, os zombies não as sentem, embora os processos biológicos e físicos que determinam o seu comportamento sejam os de uma pessoa que vive emoções.

Para sermos completos e tão honestos quanto possível, mesmo que uma inteligência artificial realmente forte fosse dificilmente possível, uma IA pode ser cada vez mais percepcionada como forte por uma maioria de indivíduos em paralelo com a chegada de IAs generativas, como o Chat GPT e ferramentas de geração de imagens como Midjourney, DALL-E ou Stable Diffusion.

Estas ferramentas podem ser utilizadas para todo o tipo de aplicações: criar, sintetizar e traduzir textos, compor imagens e vídeos a partir de sugestões e textos descritivos.

Por conseguinte, é cada vez mais difícil para um ser humano distinguir entre as criações humanas e as produzidas pela IA generativa. É verdade que os textos, pelo facto de serem criados pelo processo de inteligência artificial, não exprimem um pensamento, mas são apenas o resultado de operações sobre textos anteriores.

Um investigador em ética e vieses algorítmicos fala de “papagaios estocásticos“, enquanto um professor da Sorbonne diz que se trata de um plágio sem consciência, difícil de detectar porque cada texto humano contém expressões de textos já existentes.

A inteligência artificial generativa é um tipo de sistema de inteligência artificial (IA) capaz de gerar texto, imagens ou outros meios de comunicação. Parece ter aplicações potenciais em quase todos os domínios, estando ainda a ser debatido o equilíbrio entre riscos e oportunidades: a IA generativa é também uma fonte de preocupação, com desafios éticos, técnicos e socioeconómicos que correspondem às esperanças que suscita.

Vamos terminar esta panorâmica com as ameaças mais graves, os piores riscos da Inteligência Artificial.

A inteligência artificial é uma ferramenta fantástica quando utilizada ao serviço da saúde, da tecnologia ou da astrofísica. Mas, nas mãos erradas, também pode ser utilizada para fins criminosos ou de desinformação.

As ameaças graves incluem a criação de vídeos falsos que se fazem passar por alguém, fazendo-o dizer ou fazer coisas que nunca disse ou fez, com o objetivo de pedir acesso a dados seguros, manipular a opinião pública, prejudicar a reputação de alguém, etc.

Podemos também mencionar a pirataria informática de carros autónomos ou drones militares, o phishing direcionado, as infoxes fabricadas, a chantagem em grande escala ou a manipulação dos mercados financeiros. As informações falsas geradas por “bots” podem arruinar a reputação de uma pessoa conhecida ou ser utilizadas para a chantagear. Difíceis de combater, estes “deepfakes” podem causar prejuízos económicos e sociais consideráveis. Incluem a exploração de preconceitos, falsas críticas e falsificações de todos os tipos.

Exemplos mais graves incluem sistemas para assumir o controlo de um robô ou drone militar, vender serviços fraudulentos ou dados falsos ou tendenciosos, impedir ou manipular o acesso a um serviço financeiro, público ou social, etc., enganar um sistema de reconhecimento ou corromper dados num ficheiro de saúde ou de investigação criminal.

Por último, podemos imaginar três formas de IA generativa:

  1. IA interactiva, capaz de interagir com o mundo real de formas mais complexas, colaborando com outro software, máquinas ou robôs.
  2. A IA autónoma, que permitirá às máquinas executar tarefas sem intervenção humana, em domínios como os transportes, a saúde e a segurança.
  3. Por último, a IA consciente, geralmente considerada uma possibilidade distante, seria capaz de alguma forma de consciência emocional e de auto-consciência.

Subsistem muitas questões éticas, morais e filosóficas complexas.

Podemos refletir sobre estas questões, levar as pessoas a pensar nelas e ser o mais proactivos possível.

A questão já não é “Será que vamos utilizar a inteligência artificial amanhã?

“No futuro, o homem estará ao serviço da máquina ou manterá o controlo sobre a ferramenta que criou?

Um computador não tem afectos, não tem sentimentos… Um computador não tem qualquer responsabilidade pelas soluções que determina, recomenda e pode implementar.

Um computador não tem alma, não tem valores morais… Nisso, é absolutamente diferente do homem. Sem dúvida, cabe-nos a nós não deixar que a confusão se instale…

A consciência é exclusiva dos organismos vivos (superiores) e está ligada à natureza dos sistemas biológicos.

As máquinas actuais manipulam símbolos e dados que podem ser traduzidos em cifras e números, embora possa ser diferente com sistemas cuja organização material se baseia em processos quânticos.

Jean-Jacques Zambrowski

Tradução de António Jorge, M∴ M∴, membro de:

Fonte

Artigos relacionados

Sugestões de Estudo