Painéis Joel Luis Carbonera Gélio José da Silva Júnior Painel 1: Arte evocativa



Baixar 40.72 Kb.
Encontro01.08.2016
Tamanho40.72 Kb.
Inteligência Artificial e a Filosofia
Painéis
Joel Luis Carbonera

Gélio José da Silva Júnior



Painel 1: Arte evocativa




    • A ideia aqui é elaborar uma arte que evoque o poder da ideia de uma inteligência artificial, um ser artificial que pensa e tudo que isso representa, em termos filosóficos e em termos de feito humano.

    • Uma ideia é nos apropriarmos da imagem forte, e já absorvida pelo imaginário popular, do pensador de Rodin. Elaborar uma versão robótica do pensador. Penso em uma imagem que se aproveita do fato de estar em um ambiente escuro. Talvez uma imagem em preto, com detalhes em cores fosforecentes (o verde matrix, ou ou azul Tron, por exemplo),só sugerindo. Penso em uma peça de acrílico,iluminada por trás, para dar efeito de iluminação própria.


Painel 2: Introdução

O interesse pelo desenvolvimento de entidades artificiais inteligentes participa do imaginário da humanidade há muito tempo.

Ao mesmo tempo, as tentativas de construção de autômatos inteligentes também são bastante antigas e ocorreram em diversos pontos ao longo da história, ilustrando o interesse intelectual em acessar os princípios subjacentes à inteligência. Este imaginário traçou um longo caminho, até culminar na consolidação de uma disciplina científica que busca investigar o tema, a partir do ponto de vista científico contemporâneo.

O artigo de Turing em 1950, “Computing Machinery and Intelligence”, aborda a possibilidade de máquinas pensarem, colocando explicitamente a questão para a comunidade cinetífica moderna e discutindo-a. Este trabalho cristaliza a ideia da possibilidade de uma máquina se comportar de modo inteligente, desde que seja adequadamente programada para isso.

O nome “Inteligência Artificial”, e o estabelecimento formal de uma área de pesquisa come este nome, ocorreram em 1956, em uma conferência em Dartmouth College (Buchanan, 2005). Nesta conferência, foram discutidas propostas de investigação que norteariam o início dos trabalhos desta disciplina científica.
Painel 3: Inteligência Artificial forte e Inteligência Artificial Fraca
O filósofo John Searle distingue duas posturas em relação à IA:


  • Hipótese da Inteligência Artificial forte: Afirma que sistemas de inteligência artificial podem realmente pensar e ter uma mente genuína. Neste caso, estes sistemas não seriam apenas simulações de inteligência, mas entidades realmente inteligentes.

  • Hipótese da Inteligência Artificial fraca: Afirma que sistemas de inteligência artificial podem agir de forma inteligente, ou agir como se fossem inteligentes (ou como se tivessem mentes). Neste caso, estes sistemas, apesar de agirem de forma inteligente, não seriam entidades genuinamente inteligentes, mas, no máximo simulações de comportamentos inteligentes. Nesta visão, computadores podem ser vistos como ferramentas úteis para estudar a mente, permitindo o teste empírico de modelos da mente.

Atualmente, as duas visões convivem na área da Inteligência Artificial. Uma parcela considerável dos pesquisadores da área adota a hipótese da IA fraca. Por outro lado, há pesquisas que assumem a hipótese da IA forte, e dedicam-se a discutir a viabilidade de uma inteligência artificial geral, perseguindo o objetivo de entidades artificiais que pensam genuinamente, elaborando e propondo teorias de como poderiam ser realizadas concretamente.
Painel 4: Alan Turing e suas nove objeções
4.1:

No artigo “Computing Machinery and Intelligence”, Turing discute nove possíveis objeções à possibilidade de realização de uma inteligência artificial.



A objeção teológica

Este tipo de objeção assume que o ser humano é dotado de uma alma imortal, que é esta alma imortal que permite o pensamento e que um possível Deus dotou os homens e mulheres com esta alma, mas não fez o mesmo com os animais e as máquinas. Assim, nem animais nem máquinas poderiam pensar.

Turing sente-se incapaz de aceitar qualquer parte deste argumento, pois para algumas visões dogmáticas nem as mulheres tem alma, o que constitui um absurdo.

Turing também esboça uma resposta irônica, afirmando que o argumento questiona a onipotência deste possível Deus. Se for Deus quem confere a capacidade de pensar, dotando um ser com uma alma imortal, nada impediria que Deus a conferisse às máquinas, concedendo uma morada artificial adequada para este Deus hipotético possa preencher com uma hipotética alma imortal.

Turing salienta que, historicamente, os argumentos teológicos costumam se revelar insatisfatórios com o avanço do conhecimento e cita como exemplo as objeções teológicas em relação à teoria heliocêntrica.
4.2:
A objeção da “cabeça na areia”

Objeções deste tipo teriam a seguinte forma “As consequências de máquinas pensantes seriam terríveis, portanto, resta-nos esperar e acreditar que isso não pode ser feito”.

Turing vê este argumento como popular entre os intelectuais, orgulhosos da sua "inteligência superior", que veem seu posto ameaçado pela possibilidade de uma máquina que pensa e que poderia ser mais inteligente que eles próprios.

Cabe salientar que este argumento é falacioso, porque o fato de não querermos que algo ocorra, não significa que não possa ocorrer.


A objeção matemática

Diversos resultados alcançados na lógica matemática podem ser usados para mostrar que existem limitações nas máquinas de estados discretos (tais como os computadores digitais modernos). Os resultados mais bem conhecidos deste tipo são os teoremas da incompletude de Gödel, que provam que em qualquer sistema lógico suficientemente poderoso, é possível construir declarações que não podem ser provadas verdadeiras, tampouco falsas dentro deste mesmo sistema.

Turing salienta que, apesar de ser conhecido que há limitações nas máquinas, não podemos afirmar que o intelecto humano não tenha limitações. Humanos erram e isso não abala a confiança que são inteligentes. Mesmo que o intelecto humano seja superior ao da máquina, não está claro se isso significa que a máquina não é inteligente.
4.3:
O argumento da consciência

Em uma passagem de uma oração, Jefferson afirma que só poderíamos concordar que uma máquina se iguala ao cérebro, quando ela pudesse escrever um soneto ou compor um concerto, como consequências de pensamento e emoções realmente sentidos e não pela disposição acidental de símbolos. Ou seja, para considerar uma máquina inteligente, não bastaria que ela escrevesse um soneto, ela deveria também saber que o escreveu. Jefferson continua, afirmando que nenhum mecanismo poderia sentir prazer diante dos seus sucessos, ou sentir dor quando suas válvulas fundem-se, sentir-se confortado com lisonjas, sentir-se humilhado com seus erros, encantar-se pelo sexo, zangar-se ou deprimir-se quando não consegue obter o que deseja.

Turing vê esta afirmação como uma suposição da necessidade da consciência para a inteligência.

Turing afirma que, de acordo com o argumento, a única forma que teríamos para verificar se uma máquina é realmente inteligente, envolveria ser a própria máquina e sentir a si mesmo pensando. Da mesma forma que, só poderíamos considerar outro ser humano como um ser inteligente caso fôssemos este ser humano.

A posição geral de Turing sobre este ponto é que de é inegável que existem mistérios em relação ao fenômeno da consciência, mas que, no entanto, não é necessário resolver estes mistérios para resolver a questão da possibilidade das máquinas pensarem. Isto sugere que Turing vê inteligência e consciência como sendo independentes.
4.4:
O argumento da inaptidão

Estes argumentos supõem alguma incapacidade da máquina, para concluir que, devido a esta inaptidão, uma máquina nunca será inteligente. Turing levanta algumas dessas incapacidades, como ser gentil, bonito, simpático, ter iniciativa, ter senso de humor, distinguir o certo do errado, cometer erros, apaixonar-se, gostar de morangos com creme, etc.

Ele ressalta que, geralmente, nenhuma evidência é oferecida para suportar estes argumentos. Comenta também que o motivo que leva as pessoas acreditarem nessas inaptidões são as experiências anteriores que elas tiveram com máquinas limitadas, de propósitos específicos.
A objeção da Lady Lovelace

Fundamenta-se no relato de Ada Byron (Lady Lovelace) a respeito da máquina analítica de Charles Babbage, de que a máquina analítica não tem pretensões a originar nada de novo e de que ela pode fazer apenas aquilo que sabemos como ordená-la para fazer.

No entanto, isto não implica que não seja possível construir uma máquina que pense por si mesma, ou que, em termos biológicos, não seja possível dotar uma máquina de reflexos condicionados que podem servir como base para o aprendizado. A viabilidade desta alternativa constitui outra questão, que deve ser investigada.

Turing contrasta esta colocação de Ada Byron com outras questões. Como estar certo de que um trabalho aparentemente original e criativo realizado por um sujeito não foi simplesmente o crescimento de uma semente plantada nele pelo aprendizado ou o efeito do fato dele seguir princípios gerais bem conhecidos?


4.5:
O argumento da continuidade no sistema nervoso

O cérebro não é uma máquina de estados discreta, possuindo características bastante diversas deste tipo de máquina. Por exemplo, uma pequena diferença no sinal recebido por um neurônio gera grandes diferenças no sinal de saída. Turing estava consciente deste fato e previu que ele poderia ser usado como argumento contra a possibilidade de máquinas pensarem, assumindo que estas características próprias do cérebro seriam necessárias para o pensamento e que não seria possível reproduzir estas características em máquinas de estado discretas.

Apesar de Turing concordar com o fato de que existe esta diferença fundamental entre cérebros (sistemas contínuos) e computadores digitais (sistemas discretos), ele discorda de que este fato tenha consequências que inviabilizem uma máquina pensante. Turing assume que qualquer sistema (inclusive os sistemas contínuos) pode ser simulado em um grau razoável de precisão em máquinas discretas, desde que se tenha poder computacional suficiente para isso.
4.6:
O argumento da informalidade de comportamento

Este tipo de argumento parte da suposição de que não é possível determinar todo o conjunto de regras que descreve o que uma pessoa deve fazer em cada circunstância possível, e assume uma suposição adicional de que há um conjunto de regras que determina o que uma máquina deve fazer em cada situação possível.

Turing afirma que ter o comportamento regulado por um conjunto de regras de comportamento implica em ser uma máquina, e que, ao mesmo tempo e de forma oposta, ser uma máquina implica em ter o comportamento controlado por regras de comportamento. Turing constata que não é possível afirmar que tal conjunto de regras não exista e, portanto, não temos como afirmar com certeza que humanos não tem o comportamento controlado por um conjunto de regras de comportamento gerais.
O argumento da percepção extra-sensorial

Em 1950 a área de percepção extra-sensorial (telepatia, clarividência, precognição, psicocinese, etc) era uma área de pesquisa consideravelmente ativa. Argumentos nessa linha afirmariam que estas habilidades poderiam dar vantagens no teste de Turing. Supostamente, um interrogador poderia telepaticamente identificar o humano, em um determinado teste.

Turing discute possibilidades de contornar isto. Uma possível máquina sensível à telepatia, por exemplo, anularia esta vantagem. Outra possibilidade seria o isolamento do interlocutor em uma possível sala à prova de telepatia.
Painel 5: John Searle e o argumento da sala chinesa

5.1


John Rogers Searle é um filósofo estadunidense que ficou notório pela projeção que suas críticas ao projeto da IA tomaram, principalmente na forma do “argumento da sala chinesa”. Este argumento foi apresentado à comunidade no artigo “Minds, brains and programs”, em 1980. Neste artigo, Searle deixa claro que não faz nenhuma objeção à hipótese da IA fraca, mas foca-se em delinear uma crítica contundente à hipótese da IA forte.

O foco das críticas de Searle é a habilidade humana de compreensão (ou entendimento). Searle empenha-se em mostrar que programas de computador não podem exibir esta habilidade. O filósofo apresenta um experimento mental que ficou amplamente conhecido na literatura como “o experimento da sala chinesa”.



  • Dentro de uma sala, existe um ser humano que fala inglês (poderia ser português), mas não fala chinês.

  • Esta sala tem um canal de entrada e saída de sentenças linguísticas escritas

  • Dentro desta sala, há um livro com regras em inglês (ou português), que instruem ao ser humano como relacionar certas sentenças em chinês a outras sentenças em chinês. Estas regras consideram apenas a forma dos símbolos.

  • É pedido para que o sujeito, dentro da sala, observe as sentenças em chinês que entram na sala, identifique no livro esta sentença de entrada, siga as instruções do livro em relação a esta entrada, gere a sentença correspondente, de acordo com as instruções do livro e coloque a sentença correspondente na saída da sala.

5.2


Na visão de Searle, do ponto de vista de um observador externo, as saídas da sala tornam-se indistinguíveis das respostas de um falante nativo de chinês. As pessoas que estão fora da sala podem chamar algumas das sentenças em chinês que entram na sala de “perguntas” e chamar outras sentenças em chinês que saem da sala de “respostas”, sem que o sujeito que está dentro da sala saiba efetivamente que se trata de perguntas e respostas. Quem está dentro da sala está manipulando estas sentenças apenas comparando a forma dos símbolos que entram, com os a forma dos símbolos previstos pelas regras do livro, sem saber o significado de qualquer um dos símbolos que manipula.

Com este experimento, Searle quer mostrar que, mesmo que sejam geradas respostas razoáveis em linguagem natural, indistinguíveis das que um falante nativo de chinês geraria, não há nenhuma compreensão genuína de chinês na sala, uma vez que, apenas símbolos sem significado estão sendo manipulados. Como consequência, mesmo que uma máquina conseguisse passar no teste de Turing, isto não significaria que ele compreende genuinamente o que está fazendo.

A habilidade humana de compreensão deve-se ao que ele chamou de intencionalidade, que seria uma capacidade apresentada pelos seres vivos, através da qual nossos estados mentais se relacionam com os objetos e estados de coisas no mundo.

Searle defende que a intencionalidade só pode manifestar-se em organismos biológicos, pois ela depende dos poderes causais do cérebro. Searle defende que maquinas poderiam pensar, desde que tenham poderes causais equivalentes ao cérebro biológico.



Painel 6: Hubert Dreyfus e a crítica às suposições que fundamentam o projeto da IA
6.1:

Hubert Dreyfus é um filósofo estadunidense e em seu livro “What Computers Can't Do” (1979) ele identifica quatro suposições problemáticas que são assumidas pelos pesquisadores da área, norteando todas as pesquisas da IA.



A suposição biológica

No início das pesquisas da neurologia, os cientistas assumiam que o neurônio disparava em pulsos de “tudo ou nada” (ou seja, disparavam ou não). Este padrão de disparo permitia que os cientistas vissem o neurônio como portas lógicas similares a dos computadores digitais. Esta similaridade sugeriu que o cérebro pudesse ser visto como um manipulador de símbolos discretos (zero ou um). No entanto, Dreyfus mostra evidências de que a ação e o tempo de disparo neural possuem componentes analógicos, havendo assim componentes do neurônio que não podem ser realizados por máquinas discretas.



A suposição psicológica

Do ponto de vista do filósofo, os pesquisadores da IA supõem, incorretamente, que a mente opera sobre a informação de acordo com regras formais (ou, pelo menos, formalizáveis). Para ele existe uma massa de conhecimento de senso comum do qual estamos inconscientes e que é difícil transformá-lo em um encadeamento de símbolos discretos explícitos. Na visão de Dreyfus, este conhecimento não está no cérebro como um conjunto de símbolos com significados individuais, como os pesquisadores da IA costumam assumir.


6.2:

A suposição epistemológica

Esta suposição afirma que todo o conhecimento pode ser formalizado. Esta suposição é de natureza epistemológica, porque, na Filosofia, a Epistemologia é a disciplina que estuda o conhecimento.

O filósofo afirma que, mesmo quando os pesquisadores de IA aceitam que a suposição psicológica é falsa, ainda podem assumir que é possível que uma máquina processadora de símbolos represente todo o conhecimento, independentemente do fato de seres humanos representarem o conhecimento desta forma ou não. Dreyfus afirma que não há justificativa para esta suposição, uma vez que uma parte considerável do conhecimento humano não seria simbólica, do ponto de vista dele.

A suposição ontológica

Esta suposição afirma que o mundo consiste em fatos independentes que podem ser representados em símbolos independentes. Esta suposição é chamada de ontológica, porque a Ontologia é a disciplina filosófica que estuda as categorias básicas de coisas que existem no mundo.

Na visão do filósofo, os pesquisadores de IA geralmente assumem que não há limites para o conhecimento formal, porque, como outros cientistas, assumem que qualquer fenômeno do universo pode ser descrito por símbolos ou teorias científicas. Desta forma, tomamos que tudo que existe pode ser descrito como objetos, propriedades de objetos, classes de objetos, relações entre objetos, etc. Dreyfus lança dúvidas sobre esta suposição, afirmando que há controvérsias a respeito deste aspecto.
Painel 7: Roger Penrose / John Lucas - As objeções matemáticas
A objeção matemática baseia-se em provas matemáticas de que certas questões matemáticas são, em princípio, insolúveis para sistemas formais específicos. Os teoremas da incompletude de Gödel são o exemplo mais conhecido de evidências deste tipo. Em resumo, estes teoremas provam que, dado um sistema formal (como uma máquina de Turing), é possível fazer afirmações dentro deste sistema formal que não podem ser provadas verdadeiras nem falsas, dentro do próprio sistema.

John Lucas afirma que o teorema de Gödel mostra que máquinas são mentalmente inferiores aos seres humanos, porque máquinas são sistemas formais limitados pelo teorema da incompletude – não podem estabelecer a verdade sobre certas sentenças que se pode expressar nestas máquinas – enquanto seres humanos não possuem tal limitação.

Penrose afirma que, ao contrário da máquina, seres humanos são capazes de provar tais teoremas com o uso da intuição e da criatividade e que estes fenômenos são causados por fenômenos quânticos que ocorrem no cérebro. Para Penrose, uma máquina não pode reproduzir estes fenômenos quânticos e, consequentemente, não é capaz de pensar como humanos.
Painel 8: Questões filosóficas

Nesta parede imagino essas questões filosóficas projetadas em tempo intgral. Imagino um efeito artístico. Cada pergunta pode ser encarada como um elemento gráfico que interage com os outros. Imagino as questões movendo-se pela parede. Uma lista de possíveis questões segue:

· O que é inteligência?

· Como ocorre a inteligência?

· Máquinas podem pensar?

· É preciso ter uma alma para pensar?

· Devemos criar máquinas inteligentes?

· Máquinas podem ter livre-arbítrio?

· Máquinas podem ter emoções?

· Máquinas podem ser criativas?

· O cérebro é um computador?

· Máquinas só exibem a inteligência dos seus programadores?

· O teste de Turing é decisivo para julgar a inteligência?

· A inteligência requer um corpo?

· Hardware e software são análogos a cérebro e mente?

· Máquinas podem aprender como humanos?

· Máquinas podem adaptar-se a situações novas?

· Máquinas podem ser conscientes?

· A consciência é necessária para o pensamento?

· O teorema de Gödel prova que máquinas não podem pensar?

· Máquinas podem compreender a linguagem natural?

· Máquinas podem fazer arte?


Painel 9: Coleta de feedback

    • Algum dispositivo de interação para coletar feedback

    • Qual feeback será coletado e como?

      • Uma possibilidade é coletar respostas discursivas (não binárias) para alguma pergunta (máquinas podem pensar?), associadas a uma semântica que permita fazer análises (sim, não, não sei). Ou seja,o sujeito seleciona uma opção (sim, não, não sei) e justifica com uma discussão em uma quantidade definida de caracteres. O feeback é armazenado. O feedback armazenado pode dar origem a um estudo sobre como o imaginário coletivo vêa IA.

    • Neste mesmo terminal talvez possamos colocar também o score do teste de Turing.


©principo.org 2016
enviar mensagem

    Página principal