vendredi, novembre 22, 2024

L’information : une histoire, une théorie, un résumé des inondations et une description du guide d’étude

[ad_1]

« The Information » est un examen de l’histoire de la théorie de l’information ainsi qu’un essai sur la façon dont les ordinateurs et Internet ont changé la façon dont les gens interagissent avec l’information et l’abordent. L’information inonde désormais notre société, explique Gleick, nous obligeant à la filtrer et à la rechercher pour trouver ce que nous voulons savoir.

Gleick retrace les progrès de la technologie de l’information depuis les tambours à deux tons utilisés par les Africains subsahariens pour communiquer sur de longues distances jusqu’au développement du télégraphe, du téléphone et d’Internet. L’auteur retrace le développement de l’alphabet pour représenter le langage et former des mots et la transformation de l’alphabet en codes pour le rendre transférable le long des lignes télégraphiques.

Parallèlement à ces développements technologiques, le concept d’information en tant que quantité mesurable s’est également développé, à commencer par les premières tentatives de Charles Babbage de construire une machine mécanique capable de résoudre des équations mathématiques. Gleick décrit les théories du mathématicien américain Claude Shannon, qui a été parmi les premiers penseurs à proposer une manière de considérer l’information comme quelque chose en dehors de la signification d’un message. Gleick constate que l’influence de la théorie de l’information de Shannon s’étend jusqu’aux méthodes informatiques modernes.

Le concept était si puissant, explique Gleick, que des scientifiques d’autres domaines tels que la psychologie, la biologie et la physique l’ont pris comme modèle dans leurs propres domaines. Le cerveau pourrait être imaginé comme une immense série de commutateurs binaires qui affectent la pensée et le comportement. Le génome humain était vraiment un code pour la construction d’un organisme et pouvait potentiellement être déchiffré en utilisant la théorie de l’information. En physique, la théorie pourrait être appliquée pour déduire les états des particules quantiques et pour examiner la nature de l’espace et du temps.

Gleick examine également la relation entre le langage et les mathématiques, explorant les idées de penseurs tels que Leibniz selon lesquelles les pensées complexes pourraient être représentées par des symboles et calculées. George Boole a développé cette idée et a introduit un système de logique qui est maintenant utilisé dans la programmation informatique. Bertrand Russell a construit une théorie des nombres à partir de zéro qui était en proie à la présence de certains paradoxes. Kurt Gödel a prouvé que ces paradoxes étaient nécessaires.

Après une discussion complète de l’histoire des technologies de l’information et de la théorie, Gleick se tourne vers le flot moderne d’informations qui en a résulté. Il se penche sur l’essor de Wikipédia, une encyclopédie collaborative qui n’existe qu’en ligne et sur la manière dont les gens modernes font face à la surabondance d’informations disponibles. Tout est sauvegardé quelque part. Il semblerait qu’il y ait tellement d’informations maintenant qu’il est impossible de trouver quoi que ce soit d’utile ou de vrai, mais Gleick est optimiste que nous trouverons de nouvelles façons de rechercher et de filtrer et de continuer à apprendre et à créer.

[ad_2]

Source link -2

- Advertisement -

Latest