Información

conxunto organizado de datos procesados

A información[1] é un concepto abstracto que fai referencia a aquilo que ten o poder de informar. No nivel máis fundamental, a información pertence á interpretación do que se pode percibir. Pódese dicir que calquera proceso natural que non sexa completamente aleatorio e calquera patrón observable en calquera medio transmite certa cantidade de información. Mentres que os sinais dixitais e outros datos utilizan sinais discretos para transmitir información, outros fenómenos e artefactos como sinais analóxicos, poemas, imaxes, música ou outros sons e fluídos transmiten información de forma máis continua.[2] A información non é o coñecemento en si, senón o significado que se pode derivar dunha representación a través da interpretación.[3]

Icona internacional da información.
Letreiro informativo de dirección.

En sentido xeral, a información é un conxunto organizado de datos, que constitúen unha mensaxe sobre un determinado ente ou fenómeno. Desta maneira, se por exemplo organizamos datos sobre un país (número de habitantes, densidade de poboación, nome do presidente etc.) e escribimos por exemplo, o capítulo dun libro, podemos dicir que ese capítulo constitúe información sobre ese país.

Cando temos que resolver un determinado problema ou temos que tomar unha decisión, empregamos diversas fontes de información (como podería ser o capítulo mencionado deste imaxinario libro), e construímos o que en xeral se denomina coñecemento ou información organizada que permite a resolución de problemas ou a toma de decisións (ver apartado sobre coñecemento).

Segundo outro punto de vista, a información é un fenómeno que proporciona significado ou sentido ás cousas, e indica mediante códigos e conxuntos de datos, os modelos do pensamento humano. A información, por tanto, procesa e xera o coñecemento humano. Aínda que moitos seres vivos se comunican transmitindo información para a súa supervivencia, a diferenza dos seres humanos radica na súa capacidade de xerar e perfeccionar tanto códigos como símbolos con significados que conformaron linguaxes comúns útiles para a convivencia en sociedade, a partir do establecemento de sistemas de sinais e linguaxes para a comunicación.

Os datos percíbense mediante os sentidos, estes os integran e xeran a información necesaria para producir o coñecemento que é o que finalmente permite tomar decisións para realizar as accións cotiás que aseguran a existencia social. A sabedoría consiste en xulgar correctamente cando, como, onde e con que obxectivo empregar o coñecemento adquirido.

O ser humano logrou simbolizar os datos en forma representativa (linguaxe) para posibilitar o coñecemento de algo concreto e creou as formas de almacenar e utilizar o coñecemento representado.

Existe unha relación indisoluble entre os datos, a información, o coñecemento, o pensamento e a linguaxe, polo que unha mellor comprensión dos conceptos sobre información redundará nun aumento do coñecemento, ampliando así as posibilidades do pensamento humano, que tamén emprega a linguaxe -oral, escrita, xesticular etc.-, e un sistema de sinais e símbolos interrelacionados.

Etimoloxía

editar

A palabra «información» deriva do substantivo latino informatio(-nis) (do verbo informar, co significado de «dar forma á mente», «disciplinar», «instruír», «ensinar»). Xa en latín a palabra informationis era usada para indicar un «concepto» ou unha «idea», pero non está claro se tal vocábulo puidese influír no desenvolvemento moderno da palabra «información».

Por outra banda a palabra grega correspondente era μορφή (morfè, da que por metátese xurdiu a palabra latina «forma»), ou se non εἶδος (éidos, da cal deriva a latina «idea»), isto é: «idea», «concepto» ou «forma», «imaxe»; a segunda palabra foi notoriamente usada tecnicamente no ámbito filosófico por Platón e Aristóteles para indicar a identidade ideal ou esencia de algo (véxase Teoría das formas). Eidos pódese tamén asociar a «pensamento», «aserción» ou «concepto».[n. 1]

Teoría da información

editar
Artigo principal: Teoría da información.

A teoría da información é o estudo científico da cuantificación, do almacenamento e da comunicación da información. Os traballos de Harry Nyquist e Ralph Hartley na década de 1920, e de Claude Shannon na década de 1940, constituíron a base deste campo. Este campo atópase na intersección da teoría da probabilidade, da estatística, da informática, da mecánica estatística, da enxeñería da información e da enxeñería eléctrica.

Unha medida clave na teoría da información é a entropía. A entropía cuantifica a cantidade de incerteza implicada no valor dunha variable aleatoria ou o resultado dun proceso aleatorio. Por exemplo, identificar o resultado xusto dun lanzamento de moedas (con dous resultados igualmente probables) proporciona menos información (menor entropía) que especificar o resultado dunha tirada de dados (con seis resultados igualmente probables). Outras medidas importantes na teoría da información son a información mutua, a capacidade da canle, os expoñentes de erros e a entropía relativa. Os subcampos importantes da teoría da información inclúen codificación fonte, teoría da complexidade algorítmica, teoría da información algorítmica e seguridade teórica da información.

Existe outra opinión sobre a definición universal da información. Radica no feito de que o propio concepto cambiou xunto co cambio de varias épocas históricas, e para atopar tal definición, é necesario atopar características e patróns comúns desta transformación. Por exemplo, os investigadores no campo da información Petrichenko E. A. e Semenova V. G., baseándose nunha análise retrospectiva dos cambios no concepto de información, dan a seguinte definición universal: "A información é unha forma de transmisión da experiencia humana (coñecemento)". Na súa opinión, o cambio na esencia do concepto de información prodúcese despois de varios avances tecnolóxicos para a transferencia de experiencia (coñecemento), é dicir, a aparición da escritura, a imprenta, as primeiras enciclopedias, o telégrafo, o desenvolvemento da cibernética, a creación dun microprocesador, Internet, os teléfonos intelixentes, etc. Cada nova forma de transferencia de experiencia é unha síntese das anteriores. É por iso que vemos unha variedade de definicións de información, porque, segundo a lei da dialéctica "negación-negación", todas as ideas previas sobre a información están contidas nunha forma "filmada" e na súa representación moderna..[4]

As aplicacións dos temas fundamentais da teoría da información inclúen a codificación fonte/compresión de datos (por exemplo, para ficheiros ZIP) e a codificación de canles/detección e corrección de erros (por exemplo, para DSL). O seu impacto foi crucial para o éxito das misións Voyager ao espazo profundo, a invención do disco compacto, a viabilidade dos teléfonos móbiles e o desenvolvemento de Internet. A teoría tamén atopou aplicacións noutras áreas, incluíndo a inferencia estatística,[5] criptografía, neurobioloxía,[6] percepción,[7] lingüística, a evolución[8] e función[9] dos códigos moleculares (bioinformática), física térmica,[10] computación cuántica, buracos negros, recuperación de información, recollida de intelixencia, detección de plaxio,[11] recoñecemento de patróns, detección de anomalías[12] e mesmo creación artística.

Como entrada sensorial

editar

A miúdo a información pódese considerar como un tipo de entrada a un organismo ou sistema. As entradas son de dous tipos; algunhas son importantes por si mesmas para a función do organismo (por exemplo, os alimentos) ou do sistema (enerxía). No seu libro Sensory Ecology[13] o biofísico David B. Dusenbery chamou a estas entradas causais. Outras entradas (información) son importantes só porque están asociadas con entradas causales e poden utilizarse para predicir a aparición dunha entrada causal nun momento posterior (e quizais noutro lugar). Certa información é importante pola súa asociación con outra información, pero en última instancia debe haber unha conexión cunha entrada causal.

Na práctica, a información adoita ser transportada por estímulos débiles que deben ser detectados por sistemas sensoriais especializados e amplificados por entradas de enerxía antes de que poidan ser funcionais para o organismo ou o sistema. Por exemplo, a luz é principalmente (pero non só, por exemplo, as plantas poden crecer na dirección da fonte de luz) unha entrada causal para as plantas, pero para os animais só proporciona información. A luz coloreada reflectida dunha flor é demasiado débil para a fotosíntese, pero o sistema visual da abella detéctaa e o sistema nervioso da abella utiliza a información para guiar a abella cara á flor, onde a abella adoita atopar néctar ou pole, que son entradas causais, cumprindo unha función nutricional.

Como representación e complexidade

editar

O científico cognitivo e matemático aplicado Ronaldo Vigo defende que a información é un concepto que require polo menos dúas entidades relacionadas para ter sentido cuantitativo. Estes son, calquera categoría definida dimensionalmente de obxectos S, e calquera dos seus subconxuntos R. R, en esencia, é unha representación de S, ou, noutras palabras, transmite información representacional (e, polo tanto, conceptual) sobre S. Vigo define entón a cantidade de información que R transmite sobre S como a taxa de cambio na complexidade de S sempre que os obxectos de R se eliminan de S. Na "Información de Vigo", patrón, invariancia, complexidade, representación e información— cinco construcións fundamentais da ciencia universal—están unificadas baixo un novo marco matemático.[14][15][16] Entre outras cousas, o marco pretende superar as limitacións da información de Shannon-Weaver cando se intenta caracterizar e medir información subxectiva.

Como substituto da tarefa perdida de tempo, enerxía e material

editar

Michael Grieves propuxo que a información se centre no que fai, no canto de definir o que é. Grieves propuxo[17] Esta información pode substituír o malgasto de recursos físicos (tempo, enerxía e material) nas tarefas orientadas a obxectivos. As tarefas orientadas a obxectivos poden dividirse en dous compoñentes: o uso máis rendible dos recursos físicos: tempo, enerxía e material, e o uso adicional dos recursos físicos empregados na tarefa. A información non substitúe nin substitúe o uso máis rendible dos recursos físicos, pero pode utilizarse para substituír os recursos físicos desaproveitados. A condición para que isto ocorra é que o custo da información sexa inferior ao custo dos recursos físicos desaproveitados. Dado que a información é un ben non rival, isto pode ser especialmente beneficioso para as tarefas repetibles. Na industria manufactureira, a categoría de tarefas na que se fai un uso máis rendible dos recursos físicos denomínase fabricación axustada.

Como influencia que leva á transformación

editar

A información é calquera tipo de patrón que inflúe na formación ou transformación doutros patróns.[18][19] Neste sentido, non hai necesidade de que unha mente consciente perciba, e moito menos aprecie, o patrón. Considere, por exemplo, ADN. A secuencia de nucleótidos é un patrón que inflúe na formación e desenvolvemento dun organismo sen necesidade dunha mente consciente. Con todo, pódese argumentar que para que un humano defina conscientemente un patrón, por exemplo un nucleótido, implica naturalmente un procesamento consciente da información.

A teoría de sistemas ás veces parece referirse á información neste sentido, asumindo que a información non implica necesariamente ningunha mente consciente, e os patróns que circulan (debido á retroalimentación) no sistema pódense chamar información. Noutras palabras, pódese dicir que a información neste sentido é algo potencialmente percibido como representación, aínda que non se crea nin se presenta para tal fin. Por exemplo, Gregory Bateson define a "información" como unha "diferenza que marca a diferenza".[20]

Con todo, se a premisa da "influencia" implica que a información foi percibida por unha mente consciente e tamén interpretada por ela, o contexto específico asociado a esta interpretación pode provocar a transformación da información en coñecemento. As complexas definicións tanto de "información" como de "coñecemento" dificultan esta análise semántica e lóxica, pero a condición de "transformación" é un punto importante no estudo da información na súa relación co coñecemento, especialmente na disciplina empresarial de xestión do coñecemento. Nesta práctica, utilízanse ferramentas e procesos para axudar a un traballador do coñecemento a realizar investigacións e tomar decisións, incluíndo pasos como:

  • Revisar a información para derivar efectivamente valor e significado.
  • Referenciar metadatos se están dispoñibles
  • Establecer contexto relevante, a miúdo a partir de moitos contextos posibles
  • Derivar novos coñecementos da información
  • Tomar decisións ou recomendacións a partir do coñecemento resultante

Stewart (2001) sostén que a transformación da información en coñecemento é fundamental, xa que se atopa no centro da creación de valor e da vantaxe competitiva para a empresa moderna.

O dicionario danés de termos de información[21] sostén que a información só proporciona unha resposta a unha pregunta exposta. Que a resposta proporcione coñecemento depende da persoa informada. Así que unha definición xeneralizada do concepto debería ser: "Información = Unha resposta a unha pregunta concreta".

Cando Marshall McLuhan fala de medios e os seus efectos nas culturas humanas, refírese á estrutura de artefactos que á súa vez dan forma aos nosos comportamentos e mentalidades. Tamén se adoita dicir que as feromonas son "información" neste sentido.

Información mediada tecnolóxicamente

editar
Véxase tamén: Era da información.

Estas seccións utilizan medicións de datos no canto de información, xa que a información non se pode medir directamente.

A partir de 2007

editar

Estímase que a capacidade tecnolóxica do mundo para almacenar información pasou de 2,6 exabytes (comprimidos optimamente) en 1986, -que é o equivalente informativo a menos dun CD-ROM de 730 MB por persoa – ata os 295 exabytes (comprimidos optimamente) en 2007[22] -este é o equivalente informativo de case 61 CD-ROM por persoa.-[23]

A capacidade tecnolóxica combinada do mundo para recibir información a través de redes de difusión unidireccionais foi o equivalente informativo de 174 xornais por persoa e día en 2007.[22]

A capacidade efectiva combinada do mundo para intercambiar información a través de redes de telecomunicacións bidireccionais foi o equivalente informativo de 6 xornais por persoa e día en 2007.[23]

A partir de 2007, calcúlase que o 90% de toda a información nova é dixital, principalmente almacenada en discos duros.[24]

A partir de 2020

editar

A cantidade total de datos creados, capturados, copiados e consumidos a nivel mundial aumentou rapidamente, ata alcanzar os 64,2 zettabytes no 2020. Durante os próximos cinco anos ata 2025, prevese que a creación de datos globais medre ata máis de 180 zettabytes.[25]

Como rexistros

editar

Os rexistros son formas especializadas de información. Basicamente, os rexistros son información producida conscientemente ou como subproducto de actividades ou transaccións empresariais e conservada polo seu valor. Principalmente, o seu valor é como proba das actividades da organización, pero tamén poden conservarse polo seu valor informativo. Unha boa xestión documental[26] garante que a integridade dos rexistros presérvese mentres sexan necesarios.

A norma internacional sobre xestión de rexistros, ISO 15489, define os rexistros como "información creada, recibida e conservada como proba e información por unha organización ou persoa, en cumprimento de obrigacións legais ou na transacción de negocios".[27] O Comité Internacional de Arquivos (ICA) sobre rexistros electrónicos definiu un rexistro como: "información rexistrada producida ou recibida durante o inicio, realización ou finalización dunha actividade institucional ou individual e que comprende contido, contexto e estrutura suficientes para proporcionar evidencia da actividade".[28]

Os rexistros poden conservarse para manter a memoria corporativa da organización ou para cumprir os requisitos legais, fiscais ou de rendición de contas impostos á organización. Willis expresou a opinión de que a boa xestión dos rexistros e a información empresarial cumpría "...seis requisitos clave para o bo goberno corporativo... transparencia; rendición de contas; debido proceso; cumprimento; cumprimento dos requisitos legais e do dereito consuetudinario; e seguridade da información persoal e corporativa".[29]

Semiótica

editar

Michael Buckland clasificou a "información" en función dos seus usos: "información como proceso", "información como coñecemento" e "información como cousa".[30]

Beynon-Davies[31][32] explica o concepto polifacético de información en termos de signos e sistemas de sinais. Os propios signos poden considerarse en termos de catro niveis, capas ou ramas interdependientes da semiótica: pragmática, semántica, sintaxe e empírica. Estas catro capas serven para conectar o mundo social, por unha banda, co mundo físico ou técnico, por outro.

A pragmática ocúpase da finalidade da comunicación. A pragmática vincula a cuestión dos signos co contexto no que se utilizan. A pragmática céntrase nas intencións dos axentes vivos que subxacen ao comportamento comunicativo. Noutras palabras, a pragmática vincula a linguaxe á acción.

A semántica ocúpase do significado dunha mensaxe transmitida nun acto comunicativo. A semántica considera o contido da comunicación. A semántica é o estudo do significado dos signos: a asociación entre signos e comportamentos. A semántica pode considerarse o estudo do vínculo entre os símbolos e os seus referentes ou conceptos, en particular a forma en que os signos se relacionan co comportamento humano.

A sintaxe ocúpase do formalismo utilizado para representar unha mensaxe. A sintaxe como área estuda a forma da comunicación en termos da lóxica e a gramática dos sistemas de signos. A sintaxe dedícase ao estudo da forma máis que do contido dos signos e os sistemas de signos.

Nielsen (2008) analiza a relación entre semiótica e información en relación cos dicionarios. Introduce o concepto de custo da información lexicográfica e refírese ao esforzo que debe facer o usuario dun dicionario para, primeiro, atopar e, despois, comprender os datos para poder xerar información.

A comunicación prodúcese normalmente no contexto dunha situación social. A situación social establece o contexto das intencións transmitidas (pragmática) e a forma de comunicación. Nunha situación comunicativa, as intencións exprésanse a través de mensaxes que comprenden coleccións de signos interrelacionados tomados dunha linguaxe mutuamente comprendida polos axentes implicados na comunicación. A comprensión mutua implica que os axentes implicados entenden a linguaxe elixida en termos da súa sintaxe e semántica acordadas. O emisor codifica a mensaxe na linguaxe e envíao como sinais a través dalgunha canle de comunicación (empírico). A canle de comunicación elixido ten propiedades inherentes que determinan os resultados, como a velocidade á que pode producirse a comunicación e a que distancia.

Física e determinismo

editar

A existencia de información sobre un sistema cerrado é un concepto importante tanto en física clásica como en mecánica cuántica, que engloba a capacidade, real ou teórica, dun axente para predicir o estado futuro dun sistema baseándose no coñecemento adquirido durante o seu pasado e presente. O determinismo é unha teoría filosófica que sostén que a determinación causal pode predicir todos os acontecementos futuros,[33] expondo un universo totalmente predicible descrito polo físico clásico Pierre Simon Laplace como «o efecto do seu pasado e a causa do seu futuro».[34]

Historia da información

editar

Na Idade Media o almacenamento, acceso e uso limitado da información realizábase nas bibliotecas dos mosteiros entre os séculos III e XV.

Na Idade Moderna, coa invención dos tipos móbiles por parte de Johannes Gutenberg e a posterior aplicación na imprenta, os libros podían fabricarse en serie. Xorden as primeiras publicacións periódicas.

No século XX, Claude Elwood Shannon, un enxeñeiro nado en Míchigan en 1916, publicou en 1948 algúns traballos relacionados co tratamento da información (teoría da información). Durante este século irrompe a radio, a televisión e Internet.

James Watson e Francis Crick descubriron os principios dos códigos do ADN, que forman un sistema de información a partir da dobre espiral de ADN e a forma en que traballan os xenes.

Nos anos 40, Jeremy Campbell, definiu o termo información desde unha perspectiva científica, no contexto da era da comunicación electrónica.

Norbert Wiener, pai da cibernética, encargouse de "manter a orde" en calquera sistema natural ou artificial. Estes avances deron lugar a unha nova etapa no desenvolvemento da tecnoloxía, na que moitos científicos se inspiraron para faceren as súas propias achegas á teoría da información.

Actualmente, xa no século XXI, nun curto período de tempo, o mundo desenvolvido propúxose acadar a globalización do acceso ós enormes volumes de información existentes en medios cada vez máis complexos, con capacidades ascendentes de almacenamento e en soportes cada vez máis reducidos. A proliferación de redes de transmisión de datos e información, de bases de datos con acceso en liña, situadas en calquera lugar, localizables mediante Internet, permiten o achado doutras redes e centros de información de diferentes tipos en calquera momento desde calquera lugar.

 

Función da información

editar
  • Aumentar o coñecemento do usuario.
  • Proporcionar a quen Toma de decisións a materia prima fundamental para o desenvolvemento de solucións e a elección.
  • Proporcionar unha serie de regras de avaliación e regras de decisión para fins de control.

En relación co terceiro punto, a Información como vía para chegar ó Coñecemento, debe de ser elaborada para facela utilizable ou dispoñible. Este proceso empírico chámase Documentación, que ten métodos e ferramentas propios. A cantidade de información e o coñecemento desenvolvido, aparentemente é enorme e ten unha metodoloxía de recuperación, que eventualmente é infinita ou total nun número moi amplo de soportes e sitios e o modelo sistémico de recuperación debe maximizar a busca para asegurar a súa captura o máis completa posible dentro da contorna deste sistema complexo. No caso de buscas en Internet e usando dous ou máis descritores, os resultados numéricos que dan os motores de busca, que conteñan os dous ou máis termos xuntos ou moi próximos, xa é unha medida da cantidade de información conseguida e que é en expresión matemática o ln ou logaritmo natural da suma das interaccións validadas. Valores de 2 ou 3 serán óptimos.

A información como tal non ten funcións, pois estas son o funcionamento de algo, de modo que estas funcións soamente son propias de quen emprega e manexa a información. Pero tamén é imposible que a información dote ó individuo de máis coñecemento, é el quen valora o significativo da información, organízaa e convértea en coñecemento. Non é a información de modo directo. O dato, en si, é un "afixo" da información, por así chamalo.

Exemplos de cantidade de información

editar

Existen experimentos científicos e empresas que xeran enormes cantidades de información:

Exemplos de cantidade de información
Concepto Cantidade
Gran colisor de hadróns 15 PB/ano[35]
Large Synoptic Survey Telescope 28 PB/día[36]
Internet 667 EB/ano[37]
  1. O vocábulo indicaba orixinariamente «aquilo que aparece á vista», derivando da raíz indoeuropea *weid-/wid-/woid-, «ver» (confrontar coa palabra latina vídeo). De modo que pode consiguientemente asumir unha gran multiplicidade de significados (por exemplo en Sócrates indica ao «modelo teórico» dunha oración).
Referencias
  1. Definicións no Dicionario da Real Academia Galega e no Portal das Palabras para información.
  2. John B. Anderson; Rolf Johnnesson (1996). Understanding Information Transmission. Ieee Press. ISBN 9780471711209. 
  3. Hubert P. Yockey (2005). Information Theory, Evolution, and the Origin of Life. Cambridge University Press. p. 7. ISBN 9780511546433. 
  4. Semenova, Veronika; Petrichenko, Evgeny (2022). "Information: The History of Notion, Its Present and Future". Izvestiya University. The North Caucasus Region. Series: Social Sciences 1 (213). pp. 16–26. ISSN 2687-0770. doi:10.18522/2687-0770-2022-1-16-26. 
  5. Burnham, K. P. and Anderson D. R. (2002) Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, Second Edition (Springer Science, New York) ISBN 978-0-387-95364-9.
  6. F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code. The MIT press. ISBN 978-0262681087. 
  7. Delgado-Bonal, Alfonso; Martín-Torres, Javier (2016-11-03). "Human vision is determined based on information theory". Scientific Reports (en inglés) 6 (1). p. 36038. Bibcode:2016NatSR...636038D. ISSN 2045-2322. PMC 5093619. PMID 27808236. doi:10.1038/srep36038. 
  8. cf; Huelsenbeck, J. P.; Ronquist, F.; Nielsen, R.; Bollback, J. P. (2001). "Bayesian inference of phylogeny and its impact on evolutionary biology". Science 294 (5550). pp. 2310–2314. Bibcode:2001Sci...294.2310H. PMID 11743192. doi:10.1126/science.1065889. 
  9. Allikmets, Rando; Wasserman, Wyeth W.; Hutchinson, Amy; Smallwood, Philip; Nathans, Jeremy; Rogan, Peter K. (1998). "Thomas D. Schneider], Michael Dean (1998) Organization of the ABCR gene: analysis of promoter and splice junction sequences". Gene 215 (1). pp. 111–122. PMID 9666097. doi:10.1016/s0378-1119(98)00269-8. 
  10. Jaynes, E. T. (1957). "Information Theory and Statistical Mechanics". Phys. Rev. 106 (4). p. 620. Bibcode:1957PhRv..106..620J. doi:10.1103/physrev.106.620. 
  11. Bennett, Charles H.; Li, Ming; Ma, Bin (2003). "Chain Letters and Evolutionary Histories". Scientific American 288 (6). pp. 76–81. Bibcode:2003SciAm.288f..76B. PMID 12764940. doi:10.1038/scientificamerican0603-76. Arquivado dende o orixinal o 2007-10-07. Consultado o 9 de xaneiro do 2023. 
  12. David R. Anderson (1 de novembro de 2003). "Some background on why people in the empirical sciences may want to better understand the information-theoretic methods" (PDF). Arquivado dende o orixinal (PDF) o 23 de xullo de 2011. Consultado o 9 de xaneiro do 2023. 
  13. Dusenbery, David B. (1992). Sensory Ecology. Nova York: W.H. Freeman. ISBN 978-0-7167-2333-2. 
  14. Vigo, R. (2011). "Representational information: a new general notion and measure of information" (PDF). Information Sciences 181 (21). pp. 4847–59. doi:10.1016/j.ins.2011.05.020. 
  15. Vigo, R. (2013). "Complexity over Uncertainty in Generalized Representational Information Theory (GRIT): A Structure-Sensitive General Theory of Information". Information 4 (1). pp. 1–30. doi:10.3390/info4010001. 
  16. Vigo, R. (2014). Mathematical Principles of Human Conceptual Behavior: The Structural Nature of Conceptual Representation and Processing. Nova York e Londres: Scientific Psychology Series, Routledge. ISBN 978-0415714365. 
  17. Grieves, Michael (2006). Product Lifecycle Management: Driving the Next Generation of Lean Thinking. Nova York: McGraw Hill. pp. 6–12. ISBN 0-07-145230-3. 
  18. Shannon, Claude E. (1949). The Mathematical Theory of Communication. 
  19. Casagrande, David (1999). "Information as verb: Re-conceptualizing information for cognitive and ecological models" (PDF). Journal of Ecological Anthropology 3 (1). pp. 4–13. doi:10.5038/2162-4593.3.1.1. 
  20. Bateson, Gregory (1972). Form, Substance, and Difference, in Steps to an Ecology of Mind. Universidade de Chicago Press. pp. 448–66. 
  21. Simonsen, Bo Krantz. "Informationsordbogen - vis begreb". Informationsordbogen.dk. Consultado o 10 de xaneiro do 2023. 
  22. 22,0 22,1 Hilbert, Martin; López, Priscila (2011). "The World's Technological Capacity to Store, Communicate, and Compute Information". Science 332 (6025). pp. 60–65. Bibcode:2011Sci...332...60H. PMID 21310967. doi:10.1126/science.1200970.  Free access to the article at martinhilbert.net/WorldInfoCapacity.html
  23. 23,0 23,1 "World_info_capacity_animation". YouTube. 11 de xuño de 2011. Arquivado dende o orixinal o 2021-12-21. Consultado o 10 de xaneiro do 2023. 
  24. Failure Trends in a Large Disk Drive Population. Eduardo Pinheiro, Wolf-Dietrich Weber and Luiz Andre Barroso
  25. "Total data volume worldwide 2010-2025". Statista (en inglés). Consultado o 10 de xaneiro do 2022. 
  26. "What is records management?". Consultado o 10 de xaneiro do 2023. 
  27. ISO 15489. 
  28. Committee on Electronic Records (febreiro de 1997). "Guide For Managing Electronic Records From An Archival Perspective" (PDF). www.ica.org. International Committee on Archives. p. 22. Consultado o 10 de xaneiro do 2023. 
  29. Willis, Anthony (1 de agosto de 2005). "Corporate governance and management of information and records". Records Management Journal 15 (2). pp. 86–97. doi:10.1108/09565690510614238. 
  30. Buckland, Michael K. (xuño de 1991). "Information as thing". Journal of the American Society for Information Science 42 (5). pp. 351–360. doi:10.1002/(SICI)1097-4571(199106)42:5<351::AID-ASI5>3.0.CO;2-3. 
  31. Beynon-Davies, P. (2002). Information Systems: an introduction to informatics in Organisations. Basingstoke, UK: Palgrave. ISBN 978-0-333-96390-6. 
  32. Beynon-Davies, P. (2009). Business Information Systems. Basingstoke: Palgrave. ISBN 978-0-230-20368-6. 
  33. Ernest Nagel (1999). "§V: Alternative descriptions of physical state". The Structure of Science: Problems in the Logic of Scientific Explanation (2nd ed.). Hackett. pp. 285–292. ISBN 978-0915144716. A theory is deterministic if, and only if, given its state variables for some initial period, the theory logically determines a unique set of values for those variables for any other period. 
  34. Laplace, Pierre Simon, A Philosophical Essay on Probabilities, translated into English from the original French 6th ed. by Truscott, F.W. and Emory, F.L., Dover Publications (New York, 1951) p.4.
  35. Interactions.org (ed.). "Let the number-crunching begin: the Worldwide LHC Computing Grid celebrates first data" (en inglés). Arquivado dende o orixinal o 01 de xuño de 2009. Consultado o 30 de abril de 2016. 
  36. The Economist (ed.). "Data, data everywhere" (en inglés). Consultado o 30 de abril de 2016. 
  37. Carol Wilson. Connected Planet, ed. "Cisco: IP traffic to hit 667 exabytes by 2013" (en inglés). Arquivado dende o orixinal o 26 de abril de 2014. Consultado o 30 de abril de 2016. 

Véxase tamén

editar

Bibliografía

editar
  • Alan Liu (2004). The Laws of Cool: Knowledge Work and the Culture of Information, University of Chicago Press
  • Bekenstein, Jacob D. (2003, agosto). Information in the holographic universe. Scientific American.
  • Gleick, James (2011). The Information: A History, a Theory, a Flood. Pantheon, Nova York, NY.
  • Shu-Kun Lin (2008). 'Gibbs Paradox and the Concepts of Information, Symmetry, Similarity and Their Relationship', Entropy, 10 (1), 1-5. Dispoñíbel en liña na páxina do xornal Entropy.
  • Luciano Floridi, (2005). 'Is Information Meaningful Data?', Philosophy and Phenomenological Research, 70 (2), pp. 351 – 370. Dispoñíbel en liña no Arquivo PhilSci
  • Luciano Floridi, (2005). 'Semantic Conceptions of Information', The Stanford Encyclopedia of Philosophy (Winter 2005 Edition), Edward N. Zalta (ed.). Available online at Stanford University
  • Luciano Floridi, (2010). Information: A Very Short Introduction, Oxford University Press, Oxford.
  • Sandro Nielsen: 'The Effect of Lexicographical Information Costs on Dictionary Making and Use', Lexikos 18/2008, 170-189.
  • Stewart, Thomas, (2001). Wealth of Knowledge. Doubleday, Nova York, NY, 379 p.
  • Young, Paul. The Nature of Information (1987). Greenwood Publishing Group, Westport, Ct. ISBN 0-275-92698-2.

Outros artigos

editar

Ligazóns externas

editar
  NODES
dada 2
dada 2
Done 1
eth 2
orte 2
Story 2
Todos 2