La langue française

Accueil > Dictionnaire > Définitions du mot « quantité d'information »

Quantité d'information

[kɑ̃tite dɛ̃fɔrmasjɔ̃]
Ecouter

Définitions de « quantité d'information »

Quantité d'information - Locution nominale

  • (Informatique) Grandeur exprimant numériquement l’information associée à la réalisation d’un évènement.

    En informatique, la quantité d'information quantifie numériquement l'essence informative d'un évènement réalisé.
    (Citation fictive générée par l'intelligence artificielle)

Quantité d'information - Définition de France Terme

  • Grandeur exprimant numériquement l'information associée à la réalisation d'un évènement.

    Notes : La quantité d'information dépend du caractère plus ou moins probable de l'évènement. Mathématiquement, elle est égale au logarithme de l'inverse de la probabilité de l'évènement. Lorsque le logarithme est binaire, elle est exprimée en shannons.

Étymologie de « quantité d'information »

Locution composée de quantité et de information

Usage du mot « quantité d'information »

Évolution historique de l’usage du mot « quantité d'information » depuis 1800

Fréquence d'apparition du mot « quantité d'information » dans le journal Le Monde depuis 1945

Source : Gallicagram. Créé par Benjamin Azoulay et Benoît de Courson, Gallicagram représente graphiquement l’évolution au cours du temps de la fréquence d’apparition d’un ou plusieurs syntagmes dans les corpus numérisés de Gallica et de beaucoup d’autres bibliothèques.

Citations contenant le mot « quantité d'information »

  • Dans l'ère numérique qui nous englobe, la quantité d'information mesurée en exabits devient le nouveau baromètre de notre civilisation.
    Jean-Pierre Aléatoire — Citation fictive générée à l'aide d'intelligence artificielle
  • Les mémoires magnétiques permettent déjà de stocker une importante quantité d'information avec des paquets atomes. On pense pouvoir encore réduire la taille de ces paquets et donc augmenter leur capacité de stockage. Pour ce faire, une voie de recherche envisagée fait intervenir des « skyrmions ». Des physiciens viennent de trouver comment les produire facilement à température ambiante dans des matériaux magnétiques.
    Futura — Des skyrmions pour les mémoires magnétiques du futur ?
  • C'est aussi [la] symbolisation qui facilite la transmission de l'information et qui est à l'origine des études sur la « théorie de l'information ». Cette théorie, fondée sur les travaux de C.E. Shannon dès 1948, permet le calcul de l'entropie, c'est-à-dire de la quantité d'information apportée par un signal, un message ou une source donnée
    J. Chaumier — L'Analyse documentaire, Paris, Entreprise moderne d'édition
  • La formule qui l'exprime [la quantité d'information gagnée] est exactement la formule de l'entropie, logarithme d'une probabilité également, mais avec le signe contraire. L'information est une entropie négative
    Ruyer — Cybern


Sources et ressources complémentaires

SOMMAIRE

Source : Google Books Ngram Viewer, application linguistique permettant d’observer l’évolution au fil du temps du nombre d'occurrences d’un ou de plusieurs mots dans les textes publiés.