InformaçÃO A REDESCOBERTA DA informaçÃO



Baixar 305.92 Kb.
Página1/7
Encontro04.08.2016
Tamanho305.92 Kb.
  1   2   3   4   5   6   7
INFORMAÇÃO

  1. A REDESCOBERTA DA INFORMAÇÃO

1.1. DOIS TIPOS DE INFORMAÇÃO

Além da sua significação fundamental, quotidiana - dar estrutura ou forma (do grego eidos ou morphé) à matéria, energia ou relação -, o conceito de informação alarga-se hoje a dois sentidos recentemente surgidos e relativamente específicos.

O primeiro é o sentido estritamente técnico ou tecnológico: informação como quantidade mensurável em bit (binary digit). É a informação métrica da teoria clássica da informação [Claude Shannon], a teoria combinatória e estatística da informação, baseada na lógica e na matemática da probabilidade.

O segundo sentido pertence a uma abordagem diversa, abordagem esta que pode, porém, servir-se da primeira nos casos em que seja aplicável, como acontece, por exemplo, na logística da transmissão da informação mediante sistemas artificiais, como a comunicação via radar ou satélite. O segundo sentido é, porém, sempre qualitativo antes de ser quantitativo, como de fato deveria ser (apesar de tudo, a quantidade é um tipo de qualidade, ao passo que o inverso não se verifica). O segundo sentido conserva, muito mais do que o sentido métrico ou quantitativo, o significado quotidiano do termo 'informação'. Hoje, porém, aplicamos muito mais a ‘informação’ em contextos relativamente insólitos ou pouco familiares (por exemplo, para explicar as características do sistema corpóreo, ou o comportamento de uma membrana celular).

A informação apresenta-se nos em estruturas, formas, modelos, figuras e configurações; em idéias, ideais e ídolos; em índices, imagens e ícones; no comércio e na mercadoria; em continuidade e descontinuidade; em sinais, signos, significantes e símbolos; em gestos, posições e conteúdos; em freqüências, entonações, ritmos e inflexões; em presenças e ausências; em palavras, em ações e em silêncios; em visões e em silogismos. É a organização da própria variedade.

Fruto da guerra e da economia da eficiência, a abordagem métrica da teoria da informação quantitativo-estatística trata a informação do mesmo modo como o dinheiro trata hoje os bens. No passado, a mudança das relações sociais permitiu que determinado bem (por exemplo, o ouro) se tornasse o «equivalente geral da troca» - unidade de medida de todos os outros bens. Os bens tornaram-se mercadorias. Toda a miríade de valores de uso pluridimensionais e quantitativos de várias entidades e relações pôde, consequentemente, ser reduzida, como se tornava necessário, a um único critério unidimensional: o valor de troca económico (ou monetário) (cf.o artigo «Comunicação», 2.6, nesta mesma Enciclopédia). A teoria quantitativa da informação obedece ao mesmo tipo de regras de transformação. Embora, por vezes, ela seja erradamente considerada como parte de uma linguagem, a informação da teoria quantitativa carece da pluridimensionalidade da linguagem (e de outros sistemas de comunicação). Mais do que uma linguagem, pode falar-se de um tipo de moeda corrente.

As selecções e combinações dos bits digitais da teoria métrica constituem, por exemplo, os recursos planeados de um computador digital - justamente como os sistemas de valorização académicos e os testes de QI utilizam outras formas de unidades monetárias para reduzir qualidades e incomensuráveis a quantidade discretas, computáveis. Ao contrário dos sistemas de valorização e dos testes de QI, não restam dúvidas sobre a extraordinária utilidade da teoria quantitativa da informação enquanto tal. Bem pouco da moderna tecnologia electrónica, que encontra aplicações em todas as ciências, seria hoje possível sem esta teoria. O problema que muitas vezes se põe reside porém no fato de que alguns adeptos da teoria tendem a confundir dólares e centésimos matemáticos com os quais medem a informação com a própria informação. O erro equivale a confundir uma palavra com o seu significado, por exemplo, ou a confundir a quantidade de energia necessária para produzir estrutura (medida em quilocalorias) com essa mesma estrutura.

A abordagem métrica ocupa-se, sobretudo, com uma única e limitada forma de valor de troca na comunicação; vice-versa, a abordagem qualitativa da informação interessa-se por vários níveis e tipos de valores de troca (monetário, social, simbólico, etc.) e também pelo problema muito mais complexo dos valores de uso na comunicação (informação para que fins e para quem?).

É uma perspectiva não fácil de definir em poucas palavras, uma perspectiva que se interessa por questões filosóficas, éticas, históricas, socioeconómicas e socioecológicas, e que abrange as versões qualitativas da cibernética e da teoria da comunicação, bem como certos aspectos da economia ambiental, da teoria dos sistemas, da teoria das hierarquias e da ecologia dos sistemas. Neste artigo se examinará o tópico da informação sob este ângulo.
1.2. A PRIMEIRA GERAÇÃO E A SUA ESTIRPE

A teoria da informação enquanto tal é uma invençào do século XX. O grosso das investigações nesta área específica só se desenvolveu nos últimos três ou quatro decénios. As suas origens modernas nos anos 40 e 50 associam-se essencilamente ao trabalho de Shannon sobre a teoria da informação matemática ou métrica; de McCulloch e Pitts para a neurologia e a teoria das redes nervosasl; à descrição da homeostase fisiológica (ou «estado estacionário») por obra de Cannon nos anos 30; a Bateson para a psicoterapia e a informação não verbal; a Wiener e Ashby para a cibernética; a Turing sobre a teoria dos computadores, e a John von Neumann para os autómatos e a teoria dos jogos. Estes investigadores, entre muitos outros, distinguem-se em particular como membros da «primeira geração» dos teóricos da cibernética, da comunicação e da informação - muitos deles conheceram-se pessoalmente e influenciaram-se profundamente.

Um resultado do caráter imaturo da abordagem à informação - que, a partir dos anos 50, invadiu gradualmente todos os outros setores de estudo e investigação e está hoje a aparecer na narrativa popular - é que a teoria da informação parece ter emergido da Segunda Guerra Mundial como Dionísio saiu da coxa de Júpiter. Para muitas pessoas, a teoria da informação aparece como um desenvolvimento intelectual e tecnológico praticamente destituído de bases históricas.

No que se refere à história das origens da concepção moderna da informação, limitamo-nos em geral a duas linhas principais de indagação, ambas sujeitas às restrições algo estreitas da história e da filosofia das modernas ciências e tecnologia.

A linha mais tecnológica concentra-se nas origens dos computadores digitais, os quais calculam passo a passo, como os números inteiros da aritmética (os dispositivos de cálculo analógico são naturalmente muito mais antigos, remontando pelo menos às medições topográficas e às cartas geográficas babilónicas de há 6000 anos, bem como às cartas náuticas de pauzinhos e conchas usadas por várias populações do Pacífico para navegar no mar alto, isto para não falar nas antigas calculadoras astronómicas como a de Stonehenge cerca de 1750 anos a.C., e das «rotas da medicina» índias das grandes planícies norte-americanas). Entre os instrumentos digitais contam-se o ábaco, com dois mil e quinhentos anos; as «ossadas» de Napier [1617]; a máquina de somar com engrenagem de Pascal [1962], construída dez anos depois da invenção de Oughtred daquele tipo de calculadora logarítmica analógico-digital conhecida como régua de cálculo; a «máquina para diferença» [1812] e a projectada «máquina analítica» [1833] de Charles Babbage. Babbage e Hollerith utilizaram ambos cartões perfurados para representar a informação, mas esta invenção pode remontar a 1745 e à sua primeira realização no sistema automatizado de cartões perfurados usado para controlar a produção de modelos do tear Jacquard [1801]. O primeiro computador digital electromecânico, o Mark I, foi construído em 1944 por Aiken, da Universidade de Harvard; a primeira máquina completamente eletrônica (ENIAC) - projectada para o cálculo das trajetórias balísticas - foi completada na Universidade da Pensilvânia em 1946. A notação binária foi usada pela primeira vez no EDVAC, e destinou-se ao exército dos Estados Unidos em 1945.

Uma linha mais filosófica conduz em geral a Leibniz - que inventou uma multiplicadora digital em 1671 - e em particular à sua formalização da numeração binária-digital (1,0) - já apresentada de outra forma mediante as linhas tracejadas e contínuas do kua ou trigramas do chinês Livro das mutações (Yi King). Os sistemas de numeração binária são muito antigos, mas implicam em geral uma contagem aos pares, com emprego de valores correspondentes a um e dois, mais do que ao sistema de posição binária de um a zero, tão útil na teoria clássica da informação. Leibniz ficou a tal ponto estupefacto perante a simplicidade e a elegância da sua numeração que viu nela a própria imagem da Criação. Imaginava ele que a unidade representasse Deus e o zero o vazio; e acreditava ter extraído todos os números do um e do zero exactamente como Deus havia extraído todas as criaturas do vazio. Leibniz sustentava que um é suficiente para derivar tadas as coisas a partir do nada (no que diz respeito à comunicação analógica e digital, cf.ainda «Comunicação», 5.4). [Sobre os desenvolvimentos associados à lógica simbólica, etc., cf. Gardner 1958, e sobre a representação da álgebra de Boole mediante certos tipos de circuitos de distribuição, o importante artigo de Shannon 1938.]

Com algumas excepções - por exemplo Rosenfield [1971] -, são pouquíssimas as investigações históricas ou antropológicas que se concentraram no background do moderno coceito de informação. A história do caminho da ciência, por exempl, raras vezes vai além do século XIX e, em geral, limita-se à invenção da ciência da termodinâmica, à versão clássica formulada pela primeira vez com clareza por Rudolf Clausius em 1850 e ao início da forma estática mais geral, atribuível essencialmente ao trabalho de Willard Gibbs por volta de 1870. A conexão entre termodinâmica, informação e cibernética podiam também encontrar-se na obra pioneira de Maxwell, cujo artigo sobre os reguladores de bolha foi publicado em 1868 e cujo famoso raciocínio sobre a aparente violação do segundo princípio da termodinâmica por efeito do chamado “demônio de Maxwell” (ao qual se voltará neste artigo) foi publicado em 1871. Em 1894, as investigações de Bolzmann no campo da mecânica estática (mecânica e teoria das probabilidades) conduziram à famosa observação segundo a qual a relação que o segundo princípio da termodinâmica define como entropia está ligada à “informação que falta”. Este conceito basilar foi ampliado pelo trabalho de Szilard de 1925 e, nos anos 30, pelo trabalho de Neumann sobre mecânica quântica.
1.3. O CONTEXTO DA ORDEM

“Variedade” é a definição mais abstrata e universal da “informação" em todas as suas formas. Pode imaginar-se que a “variedade” constitua o supraconjunto de tods as configurações possíveis de que quaquer tipo particular de informação representará um subconjunto. Necessariamente, a variedade é sustentada por, ou impressa sobre, uma base (ou indicador) energético-material; por outras palavras, a variedade depende de suportes materiais e veículos de energia e é, por isso, ora energia ora informação: qual dos dois aspectos será eventualmente dominante dependerá do contexto.

Como uma das formas da variedade, a informação não se distingue intrinsecamente do “ruído”. A informação não tem significação intrínseca, nem significado, nem valor de uso, nem valor de troca intrínsecos. Todavia, “em ou para, um dado sistema”, a informação representará uma variedade codificada ou estruturada, e o ruído uma variedade não codificada. Convém insistir no fator modificante “em ou para, um dado sistema” porque toda a variedade está constrangida a um ou outro nível - por exemplo, aos conhecidos princípios da termodinâmica, ou às inter-relações da variedade no sistema específico - independentemente do reconhecimento prático dos veículos em si mesmos. O “acaso” é afinal uma forma de ordem e manifesta uma forma de estrutrura. Por exemplo, os números aleatórios dependem da estrutura do sistema numérico; as disposições aleatórias no espaço dependem das inter-relações de matéria e de energia e dos modos sob os quais estas últimas se possam manifestar, etc.).

A distinção entre a forma de variedade chamada ‘informação’ e a definida como ‘ruído’ é, por consequência, sempre uma função da maneira como a variedade global, disponível para um determinado sistema finalizado é subdividida mediante vários processos de codificação e ordenamento. Como resultado da subdivisão global, certos tipos de variedade serão adoptados, trocados e usados, ao passo que outros serão rejeitados como “ruídos”, ou passarão de todo inobservados pelo sistema e pelos subsistemas deste. A variedade existente na órbita observada de Mercúrio é ruído para a mecânica newtoniana; para a relatividade einsteiniana, não só é informação, mas sim informação de importância crucial para a varificação experimental da própria teoria da relatividade. Como regra geral, pode afirmar-se que quanto mais elevada à ordem de complexidade de dado sistema finalizado mais elevado será o número de tipos e níveis de variedade que o sistema é efetiva ou potencialmente capaz de codificar e de utilizar como informação.

Levando a exposição um pouco mais longe, aceita-se geralmente que o “significado” em qualquer das suas acepções constitui uma função do contexto, que sem contexto não pdoe haver significado (aqueles que acreditavam no “significado intrínseco” das palavras formaularam em todo o caso uma definição contextual do significado, mesmo que se julgasse que o árbitro último do significado fosse implícita ou explicitamente Deus - ou a lógica, ou a ciência, ou a sociedade). Se bem que a informação como tal seja destituída de significado (o significado surge a outro nível no sistema de comunicação, isto é, relativamente a um outro nível do contexto), o conceito de informação faculta um instruento para explicar porque razões é o contexto necessário no significado (e ao mesmo tempo esclarece todos os problemas relativos à relação sistema/ambiente entre texto e contexto, e entre níveis de contexto).

Se se convencionar que informação e ruído são intrinsecamente permutáveis, torna-se óbvio que sem contexto não pode haver informação. Por outras palavras, sem um contexto (ou nível de contexto) relativamente ao qual se possam subdividir ou “classificar” tipos particulares tanto de variedade como de informação, é impossível distinguir um tipo de variedade do outro. Sem contexto, estamos perante a diferença para - um continuum de diferenças entre as quais a distinção é impossível. Não se podem traçar limites; não se podem discernir “figuras” do “fundo”; não se podem utilizar “disposições”; não estão disponíveis códigos para usar como tipos particulares de vínculos sobre a variedade. A variedade é tudo. Mas, variedade total = informação potencialmente infinita = informação zero.

Uma ulterior implicação do pressuposto inicial sobre a variedade é que a informação só pode nascer no âmbito do contexto de sistemas finalizados, também contextualizados por ordem de complexidade. A informação biológica no sistema nervoso, por exemplo, é o produto de certos objetivos (nutrição, respiração, ect.), mas pertence a uma ordem de complexidade diversa proveniente, por exemplo, da informação econômica; que é o produto de objetivos de ordem superior, podendo, no entanto incluir objetivos econômicos de ordem inferior (a subsistência, por exemplo).

Elaboramos brevemente os termos técnicos utilizados no parágrafo precedente: uma ordem de complexidade, por exemplo, a ordem econlógica, compreende níveis de complexidade. Dado que a ordem socioeconomica depende da ordem ecológica e por esta é abrangida, pode afirmar-se que a sociedade tem uma ordem de complexidade superior à natureza orgânica. Por sistema finalizado, entende-se qualquer sistema - social, orgânico ou artificial - que, pelo menos, seja capaz de eleborar informações para a correção de erros e ou que esteja, pelo menos, organizado para a sua reprodução.

Em geral, nos sistemas biológicos e sociais, a finalização não implica um objetivo no sentido usual do termo (intento consciente), mas por vezes na literatura ‘finalista’ é usado como sinônimo de ‘comportamento teleonômico’ de tais sistemas. Quase todo o comportamento humano, por exemplo, envolve objetivos e comportametos não-conscientes. A maior parte do nosso comportamento finalista normal (o nosso comportamento intencional) é o mais das vezes inconsciente - no sentido freudiano de ser “um comportamnto ativado por processos primários”.

(O inconsciente, o nível de informação dos processos primários, pertence a um tipo lógico superior no sentido no que respeita ao processo secundário, ou seja, ao processo de informação que inclui tanto a consciência como a memória ordinária - “preconsciente” freudiano - [cf. Wilden 1972, pp. 31-62, 445-61]).

Convém observar que ‘ordem’ e ‘desordem’ põem em jogo uma interação similar à que existe entre ‘informação’ e ‘ruído’. Em muitos contextos, ‘informação’ será, pois, sinônimo de ‘ordem’, e ruído’ de ‘desordem’. Para um dado sistema biológico ou social, a subdivisão e o uso da relação ordem-desordem são essenciais à conservação do sistema (conservação “metabólica” nos sistemas biológicos; “subsistência” nos sistemas sociais). O emprego correto da relação é decisivo para a forma de estabilidade fundamental ou corrente do sistema, para as suas capacidade reprdutoras e para a sua capacidade de, como sucesso, se adaptar quer a flutuações ambientais estocásticas quer a pertubações internas e externas (ruído) produzidas pelas suas próprias atividades. Em determinado sistema, o modo como as relações informação-ruído e ordem-desordem são subsdivididas no tempo pode dizer-nos muito acerca da flexibilidade sistêmica, ou seja, da capacidade do sistema de sobreviver no período longo - mediante adaptações estruturais ao ‘ruído’ ou a ‘desordem’ (gerados quer externa uer internamente ou das duas maneiras) que, a não ser assim, o submergiriam. Citando livremente Bateson [1972]: tudo o que não é informação, nem redundância, nem relação codificada, utilizada, é ruído; e este é a única fonte de novas configurações.
1.4. VARIEDADE NECESSÁRIA

Retomar-se-á de seguida, mas a outro nível, a relação entre ordem e desordem e entre informação e ruído. A noção fundamental expressa na última parte do parágrafo precedente pode ser reenunciada em termos de “princípio da variedade necessária”. Este princípio foi originalmente formulado, juntamente com o conceito de variedade adotado aqui, por Ashby nos anos 50 [cf. Ashby 1965, trad. It., pp. 257-66, 304-6]. Ashby propunha-se explicar a regulação cibernética e encontrar, para tal fim, uma definição qualitativa da qual se pudesse derivar uma medida quantitativa do grau de regulação necessária em circunstâncias particulares. Na forma a que Ashby chama “pitoresca”, o princípio da variedade necessária afirma que somente a variedade pode destruir a variedade.

Explicitando melhor o ponto de vista de Ashby, o princípio em causa sustenta que, se a variedade (por exemplo, a flutuação) a que dado sistema está sujeito for maior do que a variedade que o istema é capaz de tratar, este último não possuirá a “variedade necesária” para reduzir, ou pelo menos encarar, a variedade que o “ameaça”. Neste sentido, o conceito de variedade necessária pode ser utilizado como simples instrumento para discutir a flexibilidade sistêmica relativa.

Expresso de outra forma, o princípio diz que a capacidade de um sistema, S, para regular outro sistema, E, não pode superar a capacidade de S como canal de informação (um “canal” é simplesmente algo que seja usado ou projetado como meio através do qual se propaga a variedade. Existem, por exemplo, canais simples como os cabos telefônicos ou os espectros de rádio; canais relativamente complexos como as várias concentrações de mensagens entre neurônios no sistema nervoso central, abrangendo dendrites, axônios, sinapses e outros; e canais altamente complexos tais como os diversos modos de relação entre as pessoas na sociedade, ect.).

No caso normal, quantitativo, o princípio de Ashby pretende ser o equivalente na teoria do controle do décimo teorema de Shannon [Shannon e Weaver 1949]. Ocupa-se este teorema da situação que se verifica naquilo a que Shannon (curiosamente) define como um canal “discreto” - isto é, um canal que transmite sinais discretos, como pontos e traços - quando uma mensagem é perturbada por ruídos. Convém complementar o canal principal como um “canal de correção” capaz de reduzir os efeitos do ruído (capaz de corrigir os erros induzidos). Shannon demonstrou o que hoje parece óbvio (como a “variedade” de Ashby), mas que naquele tempo o não era: que a quantidade total de ruído eliminável da mensagem graças ao canal de correção é estritamente limitada pela quantidade total de informação (em bit por segundo) transferível através do canal de correção - menos uma certa quantidade correspondente a tipos irredutíveis de variedade (por exemplo, o movimento browniano, a difusão térmica) que, em nenhuma circunstância, podem ser eliminados. (Este tipo de variedade manifesta-se também na incerteza sobre as posições preciosas e a velocidade das “partículas” subatômicas, incerteza que, na física, limita as observações possíveis; não existem em todo o caso canais sem ruído.

O corolário do intuível enunciado de Ashby sobre o princípio da variedade necessária é a tal ponto óbvio que não se compreende, à primeira vista, a razão por que o não exprimiu ao mesmo tempo. Ashby, porém, tal como Wiener e Shannon, pertence àquela primeira geração de técnicos do controle e da comunicação que se viu obrigada pelo contexto historico e pelas suas próprias inovações a preocupar-se com a redução dos devios nos sistemas de controle (a conservação da “substância” mediante feed-back negativo) e com a supressão do ruído nos sistemas de comunicação artificiais. O resultado, testemunhado nos seus escritos, parece ter sido uma tendência comum para atitudes face ao “desvio” ou à “desordem” ou à “desordem” iguais às de outros influentes expoentes da mesma geração que se interessaram por análogos problemas e teorias, e por eles foram influenciados. Podem citar-se Talcott Parsons na sociologia; Lévi-Strauss na antropologia; Piaget na psicologia cognitiva “construtivista”.

O corolário em causa é naturalmente o seguinte: só a variedade pode criar variedade. Mas, nas primeiras investigações sobre a teoria do controlo e da informação, de Ashby, de Shannon, de Weaver ou outros, todas as versões do princípio da variedade necessária (a que Ashby chamou “lei”) são em última instância equivalentes à expressão seguinte: “Só a informação pode destruir o ruído” - e, neste contexto, ‘ruído’ tem o significado que lhe atribuem os técnicos. De fato, só nos anos 60 se começaram a considerar seriamente as possibilidades criativas do ruído ou da desordem (por exemplo, por obra de Mackay, Bateson e Heinz von Foerter; cf. adiante). Analogamente, só neste período começou a conquistar cosistência adequada a cibernética da amplificação do desvio (feed-back positivo) [Maruyama 1963].

O princípio de Ashby da variedade necessária pode ser expresso em termos de aplicação mais geral, que permitem tratar níveis de variedade e não apenas níveis de meras quantidades. A capacidade de um sistema, S, de representar a variedade de outros sistemas, E, não pode superar a capacidade de S como rede de comunicações.




1.5. A UNIDADE MÉTRICA DA VARIEDADE

A base da teoria da informação métrica ou “clássica” - tanto combinatória como estatística - depende da maneira particular de definir a “mensagem mais simples possível”. Como a mensagem mais simples possível, fisicamente definida, é a presença ou a ausência de um sinal, torna-se possível exprimir tais mensagens mediante respostas a um só nível a problemas a um só nível. Se o sinal estiver presente, pode escrever-se “1” (uma espécie de “sim”); se estiver ausente, pode escrever “0” (uma espécie de “não”). Também é possível representar a presença ou ausência do sinal - isto é, a presença ou ausência do que se definiu previamente como sinal - utilizando um raio de luz ou um relé, ou qualquer outro interruptor binário que possa ser “aceso” ou “apagado”. Como o sistema binário de notação aritmética (1,0) não só é o mais simples, mas também o que se coaduna com as características de “aceso” ou “apagado” do código discreto (e com as características dos componentes do interruptor) usado nos sistemas digitais, torna-se particularmente conveniente escolher o dígito binário para “medida” da informação na teoria métrica.

Obtêm-se resultados mais vantajosos e mais simples recorrendo aos logaritmos de base dois. Os logaritmos (seja qual for a sua base) permitem exprimir aditivamente as relações de tipo multiplicativo. O produto obtém-se somando os expoentes da base (por exemplo, 10 nos logaritmos naturais), e não multiplicando os números reais a que correspondem os logaritmos. Dada a base “aceso-apagado” à qual se pode comunicar a mais simples mensagem física, e dadas às relações multiplicativas ou combinatórias que se possam instaurar entre o que se definiu como “elementos discretos” de um repertório de possibilidades (isto é, o “conteúdo” definido da fonte da mensagem), os logaritmos binários facultam uma maneira intuitivamente agradável de adicionar ou subtrair decisões e, ao mesmo tempo, multiplicar e dividir probabilidades.

Todavia, a base e a notação binárias representam apenas um dos múltiplos sistemas de cálculo possíveis (como exemplo, mantém-se a base 60 no cálculo do tempo). Ela não é essencial para o projeto dos computadores, por exemplo, mas é eficiente em termos de custos. Na medida em que for possível limitar a definição de informação a problemas de certeza e incerteza no que se refere a alternativas que pertencem ao mesmo tipo (ou nível) lógico simples, como o que se aplica na notação binária, esta última e a própria teoria matemática estão obviamente destinadas uma à outra.

Pode acontecer que o leitor queira um dos numerosos manuais sobre a teoria quantitativa para obter mais pormenores do que os necessários neste contexto. Os aspectos fundamentais da teoria clássica ou métrica que aqui interessam podem elaborar-se começando pelo exemplo comum do telégrafo.

Um aparelho Morse tem a possibilidade de enviar um grande número de mensagens diversas além das expressas no sistema ponto/linha/espaço do código Morse. A menos que o aparelho seja acionado de modo inteiramente como as Morse: por exemplo, mensagens inerentes à urgência, stress, incerteza, interesse, segurança, etc. o teórico da informação deve, pois, reduzir a informação potencial (a variedade disponível) de toda a mensagem Morse aos seus elementos mais simples - pontos, linhas, espaços. Com efeito, ao descurar os espaços entre letras e palavras, o sistema do código Morse é muitas vezes utilizado como exemplo de simples sistema binário ponto/traço. No entanto, quer se ignorem ou não as funções dos espaços na mensagem a puro título exemplificativo, na mensagem Morse normal há sempre muitas outras informações que devem ser descuradas, não para fins ilustrativos, mas no próprio interesse da teoria.

A fim de que a teoria seja coerente, o matemático teórico deve optar por ignorar, por exemplo, os ritmos da mensagem Morse; por exemplo, os ritmos que a subdividem num nível de comunicação diverso do da sequência ponto-traço-espaço. Estes ritmos envolvem as combinações de cadências e frequências espaciais e temporais tais que produzem uma “impressão rádio” dos telegrafistas individuais, um “estilo de aparelho” tão identificável de modo equívoco como a caligrafia. É importante insistir neste ponto, já que o teórico clássico - por motivos lógicos e matemáticos - se vê teoricamente na necessidade de ter de considerar irrelevante a informação altamente específica codificada pelo transmissor humano (sistema aberto) em todas as mensagens Morse não mecânicas. Esta informação deve ser tratada como se fosse idêntica a todos os outros tipos de variedade, já definidos - no sistema fechado de informação adoptado - como “ruído”.

O fato é que não é possível, legitimamente, servir-se do exemplo simplificado do código Morse para ilustrar a teoria sem anotar ao mesmo tempo, que até a nível relativamente simples, a teoria matemática manifesta uma das suas propriedades frequentemente inobservada, mas intrínsecamente: a capacidade de usar a variedade para destruir a variedade ou, nourtros termos, a capacidade de homogeneizar a diversidade.

Admita-se que o sistema Morse é um sistema binário ponto/traço; admita-se também, como é essencial para a estrutura lógica (combinatória) da teoria, que traços e pontos sejam igualmente prováveis. Por outras palavras, os pontos e os traços enviados através de canais fixados são supostos logicamente independentes entre eles e não são considerados como vinculados ao código do alfabeto, nem às palavras para a representação das quais são na prática usados, nem à sua relação recíproca. Pontos e traços são simplesmente considerados como se fossem equivalentes às duas faces de uma moeda atirada ao ar. O número de possibilidade equiprováveis no repertório deste sistema Morse é 2. Bastará, porém, uma pergunta para identificar unicocamente um ponto e um traço - e log22=1. Pode, pois, dizer-se que qualquer sinal positivo do aparelho (ponto ou traço) representa a resposta à pergunta presença/ausência. Pode definir-se esta relação como sendo a mais simples mensagem fiísica e, recorrendo aos logaritimos de base 2, é possível quantificá-la como “cifra binária”, ou como bit de informação fiísicamente medida. (É irrelevante, tanto para a teoria como para a medição, o fato de que o sinal possua significação, ou se foi efetivamente expedido”).

  1   2   3   4   5   6   7


©principo.org 2016
enviar mensagem

    Página principal