DEPÓSITO LEGAL NA ENCRUZILHADA DA HIPERMODERNIDADE
Por ANTONIO MIRANDA
Efetivamente, estamos presenciando um deslocamento do antigo conceito de disponibilidade documentária, concebida como um esforço da organização da massa documental, para colocá-la à disposição dos usuários – para uma nova dimensão, graças às tecnologias. O disponível estava fisicamente limitado ao local de armazenagem, enquanto no mundo digital o disponível torna-se ubíquo e múltiplo, acessível de qualquer lugar, dependente dos recursos e das habilidades dos usuários.
Uma das primeiras tentativas de reunir o acervo de registros representativos do conhecimento da humanidade — certamente existiram outras em escala menos significativa — foi a da biblioteca de Alexandria, no auge do helenismo, supostamente proposta por Ptolomeu. Pretendeu-se reunir 500.000 rolos de manuscritos que acabaram destruídos por um incêndio.
"Junto da Biblioteca de Alexandria existia também o Museu de Alexandria, sobre o qual foram deixados maiores relatos, que funcionava como um instituto de pesquisa. Sabe-se que ele incluía um passeio (peripatos), uma galeria (exedera), jardins, paredes com pinturas coloridas, um zoológico e um santuário às Musas (mouseion), local onde os que ali frequentavam buscavam inspiração artística, científica e filosófica. Os intelectuais que estudavam na Biblioteca de Alexandria recebiam alojamento, alimentação, salários altos e isenção de impostos. Todo o conjunto era administrado por um sacerdote nomeado pelo rei." (wikipedia, a partir de FLOWER, 2002, p 38).
Pretendia reunir os livros ( rolos com manuscritos, muitos traduzidos ao grego e a outras línguas mais acessíveis, como o latim ) de todos os povos da terra, como base para um grupo de pesquisadores. Não se tratava, ao que tudo indica, apenas numa ação de preservação da memória, mas como material de trabalho, como acontece nas atuais bibliotecas especializadas ou universitárias. No caso mais recente da Inglaterra, além da British Library em Londres, foi criada uma biblioteca nacional para cuidar da literatura científica e uma outra — a British Library Lending Division, em Boston Spa, estrategicamente montada no entroncamento das vias férreas para atender aos empréstimos e cópias aos usuários em escala mundial. Atualmente, a British Library oferece "support multidisciplinary research interests" (ver in www.bl.uk/subjects/science).
Hoje em dia, esse tipo de serviço de "empréstimo entre bibliotecas" ou de "comutação bibliográfica" (de cópias de artigos científicos, que nós criamos a partir da Embrapa no início da década de 70 e depois oficializado em nível federal por iniciativa da CAPES e do CNPq, agora sediado no IBICT com disponibilidade digital, ainda é útil, mas a busca da comunidade por documentação baseia-se na internet via web, em escala planetária, a um universo indiscriminado de repositórios.
ORIGENS DO DEPÓSITO LEGAL NO MUNDO E NO BRASIL
Já existia, como foi exposto anteriormente, uma proposta de depósito legal no Egito antigo, apoiada por uma política institucional de aquisição e cópia, por calígrafos, de obras relevantes. Modernamente, a criação do estatuto do depósito legal foi na França, em 1537, sob o impacto da era gutenberguiana — a invenção e difusão da tipografia (1492)— propulsora do enciclopedismo (Diderot e d´Alembert, sec. XVIII), fundamentando o Iluminismo. Na Inglaterra o depósito legal teve início em 1662.
Desde o século passado, até o apogeu da Pós-modernidade, o Controle Bibliográfico — propugnado pela Unesco no programa de um Controle Bibliográfico Universal – CBU, em 1977, o compromisso de depósito de obras nas bibliotecas nacionais passou a ser um pré-requisito para os pedidos de registros de números do ISBN pelas editoras e instituições publicadoras em geral, assim também para o reconhecimento dos direitos autorais. Incluindo o instrumento da catalogação na fonte — o CIP (Cataloguing in Publication) que surgiu na Library of Congress em 1971, também implantada nas edições brasileiras.
Consequentemente, a biblioteca se transforma numa "agência bibliográfica nacional" (ABN) com o dever de produzir um cadastro de referências bibliográficas da produção editorial, acorde com as normas de catalogação internacionais. Nessa direção, a Library of Congress vendia cópias de suas fichas catalográficas para outras bibliotecas, facilitando e reduzindo os custos do processamento técnico.
Essas exigências também se estendem aos documentos oficiais, de órgãos públicos, que chegou a ser estabelecido pela Biblioteca do Senado Federal, promovendo o controle e eventual depósito das publicações oficiais brasileiras, mas sem base de sustentação definitiva.
A Lei do Depósito Legal se internacionalizou, com o caso nada comum da Polônia que exige 19 exemplares de qualquer obra publicada.
A Biblioteca Nacional do Rio de Janeiro, na versão mais recente pelo estatuto aprovado pelo Decreto n. 5.038, de 7/4//2004, é a responsável pela execução da politica governamental de recolhimento, guarda e preservação da produção intelectual brasileira, com as seguintes finalidades:
. adquirir, preservar e difundir os registros da memória bibliográfica e documental nacional;
. promover a difusão do livro, incentivando a criação literária nacional, no país e no exterior, em colaboração com as instituições que a isto se dediquem;
. atuar como centro referencial de informações bibliográficas;
. registrar obras intelectuais e averbar a cessão dos direitos patrimoniais do autor:
. assegurar o cumprimento da legislação relativa ao depósito legal;
. coordenar, orientar e apoiar o Programa Nacional de Incentivo à Leitura de que trata o Decreto n. 519, de 13/5/1992;
. coordenar o Sistema Nacional de Bibliotecas Públicas de que trata o Decreto n. 520, de 13/5/1992;
. elaborar e divulgar a bibliografia nacional, e
. substituir a formulação de políticas e diretrizes voltadas para a produção e o amplo acesso ao livro.
No final do século passado houve um movimento nacional pela catalogação cooperativa, liderado pela Biblioteca Nacional do Rio de Janeiro, com a participação efetiva da Fundação Getúlio Vargas — liderada por Lygia de Queiroz Sambaquy — e muitas bibliotecas universitárias. Lamentavelmente, o grupo foi desarticulado quando a FGV dissolveu a seção encarregada da ação. Por outro lado, sabemos que o cumprimento da Lei de Depósito Legal (a original, de 1897) não é efetivo, ou seja, parte considerável das publicações não são depositadas na Biblioteca Nacional do Rio de Janeiro e as medidas para reclamar e exigir o cumprimento da obrigatoriedade não é exercida plenamente, ou seja, uma proporção considerável das publicações não entram no processo de controle bibliográfico.
A Biblioteca Nacional de Brasília foi criada pelo Decreto No. 927-A de 27 de Abril de 1962, assinada pelo Presidente do Conselho de Conselho de Ministros — Tancredo Neves, "usando as atribuições" que lhe conferia o artigo 18, item III, da Emenda Constitucional no. 4, em que determina que "Serão transferidas à Biblioteca Nacional de Brasília as duplicatas disponíveis na Biblioteca Nacional do Rio de Janeiro para servir de acervo inicial da nova Biblioteca Nacional." E definiu que caberia ao Ministro de Estado da Educação e Cultura promover "os entendimentos entre os Diretores da Biblioteca Nacional do Rio de Janeiro e do Serviço Nacional de Bibliotecas realizar a seleção das duplicatas". No quadro atual, esta determinação enfrentaria a impossibilidade de receber o acervo por falta de espaço e de pessoal para executar a missão. Situação que também vive a Biblioteca Nacional de Rio de Janeiro que não tem mais espaço para albergar o acervo recente e corrente, hoje depositado fora do edifício-sede.
DISCUTINDO A QUESTÃO DO ACERVAMENTO E SUA UTILIZAÇÃO
Uma questão polêmica no concernente à memória das bibliotecas nacionais é sua disposição e até obrigatoriedade de conservar tudo, de não adotar princípios de seletividade em seu processo de acervamento, pela obrigatoriedade do depósito legal. Selecionar antes e durante o esforço de acumulação, em qualquer atividade humana e social, pode ser um equilíbrio desejável entre lembrar e esquecer. Os avanços tecnológicos no campo da informatização permitiriam um armazenamento ilimitado, mas sabemos que o avanço do conhecimento não se dá apenas no sentido acumulativo, ele requer processos de revisão e síntese para a construção de novos paradigmas. Embora estas novas formulações do saber continuem sujeitas a conjecturas e refutações, conforme defende Bertalanffy (...). A memória digital também está sujeita a hiperatualizações constantes, embora muitos especialistas defendam a possibilidade de conservar as versões anteriores para uma eventual revisão... Arquivos correntes e permanentes fazem parte das estratégias de conservação e ativação constante da memória.
Nesse contexto, apresenta-se o Diagrama de Baran, apresentando as diversas modalidades de distribuição da informação nas instâncias de aprendizagem, de busca e de seu uso pela comunidade.
DIAGRAMA DE BARAN
BARAN, P. On distributed Communications: I. Introduction to distributed communications networks. Memorandum RM-3420-PR, Santa Monica: The Rand Corporation, p. 1-37, Aug. 1964.
Mas a disposição dos acervos de forma descentralizada, "só é estabelecido por não haver um único nó central, mas a lógica permanece similar à da rede centralizada, pois todos esses nós se unem diretamente ao centro. Em outras palavras, nesse modelo, as interações periféricas são consideradas pouco relevantes, colaborando para que o processo informacional seja hierarquizado." (BARAN, p., 1964). Ou seja, a estrutura não supera o risco da vulnerabilidade. A "solução" seria o modelo distribuído, de interconexão absoluta entre os componentes do conjunto, com uma conectividade distribuída, aleatória, formada por agregação e desagregação contínua dependente da participação ou saída dos pontos do sistema. Como propugnou Lévy, podemos considerar o modelo "distribuído" como o pensamento, ou seja, "uma rede, na qual neurônios, módulos cognitivos, humanos, instituições de ensino, línguas, sistemas de escrita, livros e computadores se interconectam, transformam e traduzem as representações" (LÉVY, 1993)
Um exemplo seria o caso da Europeana, criada em 2005, mas mantendo um núcleo coordenador central do sistema. A Europeana, conforme a wikipedia, "é uma biblioteca virtual desenvolvida pelos países da União Europeia. O protótipo contém em volta de dois milhões de itens digitais, todos eles em domínio público. Mais de 50% do conteúdo inicial foi fornecido pela França, 10% do Reino Unido, 1.4% da Espanha, e 1% da Alemanha." Mas agora, O projeto prevê ao menos 10 milhões de trabalhos em 2010, quando Europeana estiver completamente operacional.
CONSIDERAÇÕES SOBRE O NOVO MARCO TECNOLÓGICO
A linguagem interativa distancia a escrita metodológico-cientifica tradicional, a que estamos habituados, da atual utilização da hipermídia, permitindo uma nova objetividade no trato da documentação, dos registros do conhecimento conforme o rigor do conhecimento científico no paradigma da inteligência artificial. Ou seja, desse modo, quando nos referimos à Ludusfera como espaço do jogo hipermidiático, estamos estabelecendo uma visão tridimensional do meta-conceito: uma dimensão conceitual da comunicação nas esferas filosófico-teóricas, uma dimensão comunicativa da experiência estética em sua expressividade hipermidiática e uma dimensão lúdica da hipermídia, no qual o jogo é seu modo de ser na esfera do mundo (significante heideggeriano da linguagem na qual habitamos), no movimento de vai-vém lúdico, da trajetória reticular-circular da compreensão entre autor/leitor imersivo, para o encontro estético-topológico ente conhecimento e ludicidade. (LARIZZATTI, D. S. de S., 2014, p. 123)
A inteligência artificial* vem produzindo desdobramentos que ampliam a capacidade de tratamento de dados e informações que conduzem a configurações ampliadas, híbridas, mesmo inusitadas na representação do conhecimento. Muitos desses novos registros exigem dispositivos para sua visualização, alguns internos — dependentes de softwares avançados —, assim como externos: câmeras e óculos especiais; alguns até independentes, como os hologramas, as impressoras em 3D e outros derivativos. Exigindo atualização constante, estes novos produtos e serviços partem de acervos existentes (ou seja, da disponibilidade documentária), mas podem gerar registros derivativos, pela produção de resultados ou respostas configuradas com os dados, informações e conhecimentos constantes dos repositórios. O computador habilitado para compreender e responder à linguagem humana, de forma inteligente, consultando os registros disponíveis em toda a web, nas configurações a seguir:
- realidade aumentada: quando inserções digitais, normalmente de natureza visual e/ou sonora, são feitas no mundo "real" e exibidas por meio de telas (como a do smartphone). (...) Costuma-se usar uma câmera equipada com sensores de movimento (a exemplo das que vêm embutidas em celulares) para captar informações do mundo real: os dados são depois processados por um computador e, então, aparecem na tela as inserções virtuais no cenário físico.
- realidade ampliada: transporta o usuário para um cenário completamente diferente, digitalizado, criado por meio de computadores, ou com vídeos gravados em 360 graus. (...) Em geral, é necessário o uso de óculos especiais, equipados com chips de altíssimo desempenho computacional e sensores de movimento. Ao colocá-los, a pessoa se vê em um novo mundo, completamente virtual — não importa para qual direção ela dirige o olhar.
- realidade mista: o elemento (totalmente) virtual é inserido, em três dimensões, no ambiente "real" e pode ser visualizado por meio de óculos computadorizados ou mesmo sem uso de equipamentos.
[Fonte: BEER, Raquel. Muito além do real. In; VEJA – Editora Abril, edição 2479, ano 49, n. 21, 25 de maio de 2016, p.98-106]
Mais informações em https://pt.wikipedia.org/wiki/Realidade_aumentada
Estamos vivendo a revolução tecnológica da sociedade: revolução agrícola, revolução industrial, revolução digital (MATTOS, 2015, p. 46-49), mas "não estamos vivendo uma era de mudanças. Estamos vivendo uma mudança de era. Estamos passando pela terceira grande transição da história do homo sapiens". (MATTOS, T. Vai Lá e Faz. 2015. Disponível em: <www.vlef.me>. Acesso em: set de 2015).
Questões candentes num cenário global em que a inteligência artificial e a criação coletiva (multivocalidade) são protagonistas de mudanças nas relações internacionais no plano econômico e de poder.
"A gestão dos conhecimentos na Web ainda é muito coletivizada, isto é, efetivamente balcanizada entre diversos serviços concorrentes, diversas línguas e diversas ontologias." (CASTELLS p, 160)
Um dos maiores desafios atuais é trabalhar com o volume monumental da memória digital, que cresce de forma acelerada e descontrolada. O volume de novos registros— para citar apenas o caso do Facebook — é crescente e a recuperação é complexa, desigual, desnivelada, até mesmo caótica. No campo da informação acadêmica, supostamente mais estruturada e balizada em termos de registro e avaliação prévia, não é animadora. Erros nos dados, interpretações facciosas, e até falsidades, além da repetitividade dos textos intertextualizados ad nauseum, seguidos de correções, desmentidos, contestações até nos foros judiciais e universitários. Na direção de tentar uma ação eficiente no controle da produção científica foi criado o software stacheck (ver manual em http://rpubs.com/michelenuijten/202816 ) para detectar erros estatísticos e outras irregularidades nas publicações científicas online, em registros PDF e HTML. Esta ferramenta baseia-se em um algorítimo com a capacidade de refazer e verificar a veracidade de dados dos documentos. Em duas horas de análises o programa é capaz de checar 50.000 artigos, com um elevado grau de confiabilidade. O criador do projeto é o holandês Chris Hartgerink, com colaboradores, com previsão de vir a detectar fraudes, já em estado avançado (2017) de legitimação mediante os testes em andamento. Tudo indica que em breve teremos aplicativos para rastrear e "julgar" a massa descomunal de registros que circulam pelas redes sociais, para separar o joio do trigo, o crível do fraudulento.
Conforme Jim de Piante , gerente do projeto, "o objetivo mais importante do Watson é encontrar respostas para qualquer pergunta analisando uma massa de dados em linguagem natural." (http://exame.abril.com.br/tecnologia/noticias/watson-o-fascinante-computador-da-ibm-que-venceu-os-humanos, acessado em 18/05/2016):
O Watson acessou 200 milhões de páginas de conteúdos estruturados e não estruturados consumindo 4 terabites de arquivos armazenados na rede de computadores, incluindo todos os conteúdos da Wikipedia. As fontes do Watson incluem enciclopédias, dicionários, tesauros, artigos digitalizados, textos literários, além de bancos de dados, taxonomias e antologias, destacando-se a DBPedia, WordNet e Yag. Análise complexa que motivou a Rice University (USA) a compreender melhor as causas que originam o câncer e outras doenças, e obter um enfoque agilizado da computação de investigação compartilhada em tempo real. Os promotores do IBM Watson acreditam poder administrar altos níveis de processamento paralelo de dados como sequências genômicas, desdobramento de proteínas e modelagem de medicamentos.
Ou seja, não estamos apenas sujeitos à relação disponibilidade – acessibilidade, mas indo para uma nova dimensão : produzir por pesquisas algoritimizadas que produzem resultados a partir do disponível e acessível em uma dimensão de comunicação, que podem ser incorporados depois nos repositórios, ou difundidos em tempo real pelas redes sociais.
Em face do exposto, reafirmamos, com uma ressalva: o conhecimento não é apenas acumulativo. A web acumula dados, informações e conhecimentos em escala crescente, mas essa massa documental fica sujeita ao obsoletismo crescente, a reformulações, supressões e desdobramentos, até os limites proclamados por Kuhn (1970) de uma reciclagem e reprogramação total, na perspectiva de novos paradigmas. Na esteira das revoluções científicas: simplificação e complexificação de teorias, de resultados de pesquisas, de especulações ainda não testadas que podem ser confirmadas ou demolidas.
De fato, na web o processo acumulativo é aleatório e a recuperação geralmente randômica, nem sempre sujeita a um processo crítico consciente ou a filtros de qualidade satisfatórios. Uma temporalidade múltipla: registros de diversas épocas sem qualquer organização sistêmica, hierárquica e até mesmo temporal, cronológica. Sujeita a processos de algoritimização, de ranking em sua ordenação durante a fase de datamining. Fascinante ou decepcionante conforme os resultados das buscas. Uma imensa esfera semântica sujeita à inteligência artificial, em sua reorganização conforme as estratégias de pesquisa, mas sempre sujeita aos ditames da interpretação a posteriori.
Na acepção de um programa como o IBM Watson — ou de outros existentes ou que ainda vão estar disponíveis como ferramentas de análise de conteúdos, é possível especular um paradoxo: descobrirmos (ou nos é apresentado pelos buscadores inteligentes) não apenas o que já existe na web, mas também os resultados consequentes, chegando a novos conteúdos resultantes das buscas, mas como produtos de análises programadas, ou seja, que não estavam disponíveis pelo armazenamento prévio. Vale dizer, numa etapa superior aos procedimentos anteriores possíveis através dos estudos bibliométricos, infométricos e da webmetria, produzidos pela inteligência artificial.
Também é possível conjecturar e refutar, no sentido popperiano, que o resultado dessas buscas consideradas "inteligentes" dependem das fontes disponíveis, da abrangência possível pelos programas de buscas disponíveis. Pode-se questionar se as buscas abrangem todas as línguas, toda a extensão dos conteúdos existentes na rede, além dos problemas semânticos propriamente ditos. Se começamos, por exemplo, com palavras-chave em inglês, com a certeza de que grande parte dos acervos serão anglo-saxônicos produzidos em escala planetária, provavelmente o buscador não alcançará línguas periféricas e pouco recorrentes, embora seja possível que ali estejam ideias originais, diferenciadas, que poderiam mudar o curso dos resultados.
DEPÓSITO LEGAL NO CONTEXTO E PERSPECTIVAS
A situação é mais complexa e problemática no Brasil porque a língua portuguesa é minoritária no processo criativo e os textos literários e científicos são pouco traduzidos a outras línguas e dependemos muito de traduções ao português para acompanhamos a literatura estrangeira, considerando que o domínio de idiomas por parte dos nossos criadores e cientista é ainda bastante limitado. A Library of Congress tem pessoal em embaixadas pelo mundo inteiro captando livros e outras publicações para seu acervo, que é estrategicamente internacional, atendendo sua geopolítica.
Passamos do manuscrito/caligráfico no período gutenberguiano, a milhares e milhares de "fontes" utilizáveis na digitalização e na composição de textos digitais — inclusive os "animados" em formato de animaverbivocovisual - AV3 — que não vamos discutir aqui —, e até, surpreendentemente, a opção do manuscrito escaneado depois transformado em e-books e em livres d'artistes assumem que formatos artesanais ou combinações entre impressões a partir do digital com gravuras manuais e intervenções pessoais dos autores. Ou seja, "a humanidade no futuro se organizará de uma forma muito diferente e dependerá de insumos não convencionais na sua tomada de decisões. Redes complexas de equipes podem definir o caminho e liderar baseados parcialmente em percepções que anteriormente eram consideradas sem valor na condução de um negócio sério." (RANDERS, p. 338).
O Controle Bibliográfico e as estratégias do Depósito Legal estão hoje supeditados aos avanços tecnológicos de acervamento do que Karl R. Popper intitulou "Mundo 3, ou mundo do conhecimento objetivo" agora sujeito às transformações automatizadas de seu conteúdo. No âmbito da "esfera semântica" descrita por Pierre Lévy.
Certamente que a estratégia do Depósito Legal de publicações impressas, quase sempre privilegiando livros, é ainda importante, enquanto outras iniciativas devem incluir artigos científicos, filmes, discos, vídeos, disponíveis em formatos independentes, mas também em versões amalgamadas — combinando textos, sons e imagens — no mundo digital. Se esta ação for no sentido de localização dos acervos em uma ou mais bibliotecas, de forma centralizada ou distribuída, vai exigir estratégias e suportes específicos. Independentemente das leis que regulem sua organização, a inclusão universal na web e sua rastreabilidade continuará sendo feita pelos grandes sistemas de comunicação ao nosso alcance, pelo computador fixo ou por dispositivos portáteis.
No caso do Brasil, qualquer legislação que consigamos aprovar e praticar, deveria prever também meios para incluir obras de brasileiros publicadas no Exterior e de autores estrangeiros que escrevem sobre temas brasileiros e publicam em outros países, que escapam da obrigatoriedade instituída em qualquer lei. Vai depender de outras formas de captação e divulgação.
* a "inteligência articifial", " é uma área de pesquisa da computação dedicada a buscar métodos ou dispositivos computacionais que possuam ou multipliquem a capacidade racional do ser humano de resolver problemas, pensar ou, de forma ampla, ser inteligente." (Wikipedia, acessada em 19/05/2016)
BERTALANFFY, Ludwig Von. Teoria Geral dos Sistemas. Rio de Janeiro: Ed. Vozes, 1975.
KUHN, T. S. The Structure of Scientific Revolutions. 2nd. Chicago, University of Chicago Press, 1970.LARIZZATTI, Dóris Sathlr de Souza. Ludusfera: o espaço do jogo hipermidiático. In;LÍBERO – São Paulo, v. 17, n. 33,A, p. 119-124, jan./jun. de 2014. ISBN 1517-3283
LÉVY, Pierre. A esfera semântica. Tomo I: Computação, cognição, economia da informação. São Paulo: Annablume, 2014. 522 p (Coleção Atopos) ISBN 978-85-391-0630-1
LÉVY, Pierre. A inteligência coletiva. São Paulo: Folha de S. Paulo, 2015. 208 p. (Coleção Folha. Grandes novmes do pensamento; v. 16) ISBN 978-85-8193-242-2
LÉVY, P. As tecnologias da inteligência: o futuro do pensamento na era da informática. 2. ed. São Paulo: Editora 34, 19