Pourquoi ce blog?

Sciences et Philosophie étaient auparavant mélangées et ne formaient qu'un... Aujourd'hui c'est rarement le cas. Ce blog est conçu pour que tous les gens s'intéressant aux Sciences (spécialistes ou non) puissent interagir et donner leurs opinions sur cette chose étrange qui parait retranscrire la réalité en équations.

Benjamin Bradu

Ingénieur au CERN
ben.jpg
Spécialités : Cryogénie, automatique
et systèmes de contrôle
voir mon CV 

Flux RSS

  • Flux RSS des articles

Recommander

Sc. de l'information

Vendredi 5 mars 5 05 /03 /Mars 17:24

wikipedia-copie-1.jpgDésormais, tout le monde connait et utilise Wikipédia dans notre pays. On trouve des fervents défenseurs et des détracteurs. Mais alors, quel crédit accorder à cette wiki-encyclopédie mondialement reconnue ?


Je pense sans trop me mouiller que Wikipedia est désormais en France la première source de données utilisée pour faire des recherches à tous les niveaux d’éducation, aussi bien par les professeurs que par les élèves  (collèges, lycées, universités, grandes écoles). Je me demande même s’il arrive qu’un élève en charge de faire une recherche sur un sujet pour un exposé puisse ne jamais être confronté à un moment ou à un autre à cette wiki encyclopédie.


De même, Wikipédia est utilisée abondamment dans tous les centres de recherche. Cependant son utilisation est ici différente car c’est plutôt pour faire des petites recherches rapides pour retrouver telle ou telle information reconnue unanimement par la communauté scientifique mais dont on ne se souvient plus. Par exemple, un chercheur peut utiliser Wikipedia plusieurs fois dans une journée pour retrouver la valeur d’une constante, l’expression d’une formule simple, voir la définition d’un concept un peu flou.


Mais alors, la majorité des individus utiliseraient la même source pour faire des recherches ? Qui plus est, via un media qui n’est soumis à aucun comité de lecture !  N’est-ce pas dangereux ? N’y a-t-il pas risque de manipuler la masse par des informations erronées ? Surtout lorsqu’en bas de la page d’accueil de la célèbre encyclopédie on peut lire « Wikipedia ne garantit pas le contenu mis en ligne »


Eh bien les réponses à toutes ces questions légitimes sont à mon avis négatives. Je vais donc essayé de vous en convaincre ici.


Wikipedia : Définition

Wikipedia est un assemblage de 2 mots :


- « Wiki » est un mot hawaiien signifiant « rapide ». On utilise aujourd’hui ce terme pour décrire les pages web d’un site ayant un contenu dynamique pouvant être modifié par un ensemble d’utilisateurs (restreint ou pas) de manière à créer des espaces collaboratifs. Le premier wiki date de 1995 et était destiné à un projet collaboratif de programmation informatique :
WikiWikiWeb
- « Encyclopedia » est le mot anglais  signifiant « encyclopédie ». Une encyclopédie est un ouvrage censé contenir toutes les connaissances de l’homme à un instant donné.

Wikipédia est donc une encyclopédie collaborative du Web dans laquelle tout un chacun peu contribuer librement. Il n’existe donc pas de version définitive de cette encyclopédie étant donné que son contenu évolue perpétuellement mais des versions sont parfois figées et éditées sur CD-ROM.


Principes fondateurs de Wikipédia

Wikipédia a été créé selon des valeurs et des principes de liberté, fortement inspirés par Richard Stallman, le pionnier du logiciel libre.
stallman.JPG

Richard Stallman, le père des logiciels libres GNU et des premières idées à la base de Wikipédia



Wikipédia est basée sur 5
principes fondateurs permettant de garantir un contenu encyclopédique de qualité :


1- 
Wikipedia est une encyclopédie : elle ne vise qu’à exposer des informations déjà établies et reconnues. A ce titre, Wikipédia ne présente jamais d’informations inédites.

2- La neutralité de point de vue : Wikipédia a pour ambition de présenter des informations de manière neutre sans jamais prendre parti ou porter de jugement de valeur. Lors d’un sujet controversé, les articles Wikipédia doivent présenter tous les points de vue objectivement en expliquant le contexte. De plus, toute information doit être justifiée en citant des sources de qualité. Ainsi, Wikipédia n’a pas l’ambition de « créer » de l’information mais simplement de créer des articles sur un sujet précis en reprenant diverses sources.

3- La liberté du contenu : tout le monde peut utiliser le contenu des articles et les modifier. Tous les articles sont automatiquement mis sous licence libre.

4- Wikipédia suit des règles de savoir vivre : les wikipédiens se doivent respect et doivent agir de manière courtoise et consensuelle sans se livrer des guerres d’éditions.

5- Wikipédia n’a pas d’autres règles fixes


En plus de ces principes fondateurs, il existe des
règles à respecter par les utilisateurs et des recommandations pour l’écriture des articles de manière à fournir un contenu et une organisation homogène entre les articles.

  

La vérifiabilité des informations

Comme tout le monde peut modifier les articles librement, plusieurs problèmes apparaissent naturellement.

Une personne peut écrire une information non exacte de manière intentionnée ou pas (l’erreur est humaine). Dans ce cas, ces erreurs sont relativement vite décelées et corrigées soit par la lecture d’un lecteur averti sur le sujet traité, soit grâce au système de suivi de Wikipédia. Le système de suivi des articles permet à un contributeur de suivre une série d’articles qui l’intéresse et est donc informé en temps réel de toute modification et peut alors contrôler constamment l’évolution d'un article.

Néanmoins, le risque de lire une information erronnée est bel et bien présent et il faut toujours être vigilant et vérifier les informations tout en conservant un esprit critique et ne pas avaler toutes ces informations goulûment : Wikipédia n'a en aucune façon la prétention de détenir la "vérité". C'est pour cette raison que l'on trouve le fameux « Wikipedia ne garantit pas le contenu mis en ligne » en fin de page.

Un autre problème de Wikipédia est le vandalisme de certains articles par des personnes mal intentionnées. Dans ce cas, il existe des administrateurs élus par la communauté qui peuvent bloquer des adresses IP et des utilisateurs identifiés comme « vandales ». De plus, les administrateurs ont le pouvoir de protéger des articles à différents niveaux :

- La protection du titre : Le titre ne peut pas être modifié. Une centaine de pages sont concernées. Ex : article
Régime de Vichy.
- La semi-protection : en raison de vandalisme répété sur une page, les administrateurs peuvent  empêcher la modification de la page par des utilisateurs anonymes ou par des utilisateurs ayant créé un compte wikipedia il y a moins de 4 jours. Environ 500 articles concernés. Ex :
Carla Bruni-Sarkozy
La protection complète : concerne généralement les pages d’aides et les modèles de Wikipédia (pas les articles). Dans ce cas, seuls les administrateurs peuvent modifier ces pages. Cependant, un utilisateur peut soumettre des modifications aux administrateurs pour approbation.

Les métiers de Wikipédia

Wikipédia est avant tout basée sur la collaboration entre les internautes et possède une excellente autogestion grâce à la multitude des « métiers » que les gens peuvent exercer selon leurs désirs et leurs aptitudes. Citons par exemple : les wikificateurs (améliorent la typographie, normalisent les articles à la manière Wikipédia, rajoutent des liens sur des mots, etc.), les rédacteurs, les graphistes, les patrouilleurs, les traqueurs, les infirmiers, les chasseurs de lauriers, les pompiers, les arbitres, les catégorisateurs, les traducteurs, Les listomaniaques, les votants, etc.


De nombreuses personnes se spécialisent dans une tâche particulière mais tous les contributeurs sont tout de même "multi-casquettes". Il en découle une organisation et un traitement efficace du contenu encyclopédique. Par exemple, un rédacteur va commencer à écrire un article, un graphiste va agrémenter l’article d’une illustration, un catégorisateur va venir classer cet article de manière intelligente au sein des categories de Wikipedia (ce qui n’est pas toujours trivial) et un traducteur viendra traduire cet article pour la version roumaine de Wikipédia. Et si un vandale passe par là et vandalise l'article, un patrouilleur remettra en ligne la version précédente grâce à l’historique.


Wikimedia

Wikipédia n’est jamais qu’un projet parmi d’autres de la fondation Wikimedia qui est un organisme américain de bienfaisance ayant pour tâche d’administrer et d’héberger des projets collaboratifs de wiki. A ce titre, elle n’a aucun droit éditorial sur les contenus. 

wikionary




Les projets actuels de Wikimedia sont les suivants :
- Wikipedia : encyclopédie
- Wikimedia Commons : médiathèque d’images, vidéos et sons
- Wikinews : informations sur les actualités
- Wikiquote : base de citations de personnes célèbres
- Wikisource : bibliothèque contenant des textes passés dans le domaine public ou libres de droit
- Wiktionary : Dictionnaire
- Wikiversity : université contenant des cours de tous les niveaux dans tous les domaines
- Wikibooks : rédaction de ressources pédagogiques
- Wikispecies : Recensement des espèces du vivant

Par Benjamin Bradu - Publié dans : Sc. de l'information
Ecrire un commentaire - Voir les 8 commentaires
Dimanche 21 février 7 21 /02 /Fév 16:58

Voila un terme que l’on comprend aisément mais dont on explique difficilement le fonctionnement. C’est justement ce genre de notions que j’aime expliquer dans ce blog.

compression donnees 

 

 

De manière générale, comprimer des données est un problème simple à formuler : «  Réduire l’espace occupé par une information ».
 

 

Cette compression peut se réaliser sans altération du contenu, on parle alors de compression sans perte mais il existe aussi des systèmes de compression altérant légèrement l’information originale de manière à accroitre la compression. Cette dernière opération est ainsi qualifiée de compression avec pertes car dans ce cas, l’opération inverse (la décompression) ne redonne pas exactement l’original.
 

En informatique, la compression de données peut être formulée ainsi : « Transformer une série de bits en une autre série de bits plus petite à l’aide d’un algorithme tout en conservant l’information, c’est-à-dire que l’opération inverse doit être possible»


Compression sans perte

L’algorithme de compression sans perte le plus simple à comprendre est le système de codage RLE (Run Length Encoding) qui consiste à compter les répétitions d’un caractère (ou d’un bit).

Exemple de codage RLE : le mot « ouuuuuaauuuuuu » est interprété comme étant une suite d’un « o », de 5 « u », de 2 « a » et de 6 « u », soit : « o5u2a6u ». Nous avons donc compressé 14 caractères en 7 caractères (taux de compression de 50%). Il est évident que ce type de codage est pertinent uniquement si de grandes chaines de caractères sont répétées. C’est le cas pour l’encodage des fax pour coder la succession des points noirs et blancs sur une feuille (codage CCITT).

Les autres techniques de compression sans perte sont des techniques de compression entropique. Ces algorithmes sont basés sur une étude statistique de l’information à compresser de manière à encoder les caractères récurrents sur très peu de bit. Les algorithmes entropiques les plus connus sont l’algorithme de Huffman et l’algorithme LZ77.

 

L’algorithme de Huffman

Le mieux pour comprendre cet algorithme est de donner un exemple. Fixons nous comme objectif de compresser la phrase « LES SCIENTIFIQUES SONT INTELLIGENTS ».

En représentation ASCII classique, il faut 7 bits par lettre (2^7 = 128 caractères au total) : cette phrase de 35 caractères occupera donc un espace mémoire de 35*7=245 bits.
 

Maintenant, en utilisant le codage de Huffman, nous allons étudier le nombre d’occurrences de chaque lettre dans le texte à compresser de manière à attribuer un plus petit nombre de bits aux lettres les plus utilisées :

- C, F, Q, U, O, G : 1 occurrence

- L, ESPACE : 3 occurrences

- T, N : 4 occurrences

- E, S, I : 5 occurrences

On construit alors un arbre ou chaque feuille représente une lettre accompagnée de son poids (le nombre d’occurrences). On prend alors les 2 poids les plus faibles pour les regrouper et obtenir un nœud ayant un poids égal à la somme des 2 feuilles et ainsi de suite jusqu’à obtenir un seul nœud à la fin.
 

Avec notre exemple :

a) On regroupe les lettres de poids « 1 » et on les additionne pour faire des nœuds de poids « 2 » (jaune)

b) On ajoute les 2 lettres de poids « 3 » à 2 nœuds de poids « 2 » pour faire des nœuds de poids « 5 » (vert)

c) On ajoute les 2 lettres de poids « 4 » aux nœuds de poids « 2 » et « 5 » pour faire des nœuds de poids « 6 » et « 9 » (magenta).

d) On ajoute les 3 lettres de poids « 5 » aux nœuds de poids « 5 », « 6 » et « 9 » pour faire des nœuds de poids « 10 », « 11 » et « 14 » (orange).

e) On termine l’arbre jusqu’à obtenir un nœud commun de poids « 35 » (rouge).

f) Reste à attribuer une série de bit à chaque lettre. Pour cela, on choisit d’ajouter un bit « 0 » pour les branches de gauche et un bit « 1 » pour les branches de droites et on obtient alors l’arbre suivant : 

hauffman-copie-1.jpg

 

La phrase « LES SCIENTIFIQUES SONT INTELLIGENTS »est donc transcrite ainsi :

 

0100 011 001 1000 001 00010 11 011 101 0000 11 00011 11 10010 10011 011 001 1000 001 01010 101 0000 1000 11 101 0000 011 0100 0100 11 01011 011 101 0000 011

Ce qui représente au total 122 bits au lieu de 245 bits, soit un taux de compression de 50% environ. Le codage de Huffman est extrêmement performant et est utilisé comme dernière étape dans beaucoup d'autres algorithmes de compression.
 

L’algorithme LZ77 ou codage par dictionnaire

Cet algorithme permet de remplacer des séquences récurrentes par la position et la longueur de la première occurrence dans une fenêtre glissante. Par exemple, dans cet article, on retrouve le mot « compression » de nombreuses fois et au lieu de le réécrire à chaque fois, on pourrait simplement dire de revenir de « n » caractères en arrière et de recopier les « p » caractères suivants (p=11 dans le cas du mot « compression »).

Exemple :

« La compression est géniale, elle permet la compression de fichiers de toutes sortes ainsi que la compression de l’espace mémoire »

« La compression est géniale, elle permet la (41,11) de fichiers de toutes sortes ainsi que la (97,11) de l’espace mémoire »

 
On a donc réduit le nombre de caractère total de cette phrase. Cet algorithme s'avère très intéressant quand de grandes suites de caractères sont très récurrentes.
 

ZIP

Toute personne utilisant les ordinateurs est familière du format de compression dénommé zip (le plus souvent géré à l’aide du fameux logiciel pour Windows winzip). Zip est en fait un algorithme de compression sans perte permettant de compresser n’importe quel fichier informatique (texte, image, son, etc.). En fait, le zip utilise un algorithme dénommé deflate qui n’est rien d’autre que la succession d’un codage Huffman puis d’un codage LZ77.

winzip 

 

Compression avec pertes

Ici, le principe consiste à exploiter les faiblesses de l’homme. En effet, notre ouïe et notre vue ne sont pas parfaites et de nombreuses informations contenues dans les fichiers audios ou visuels sont souvent inutiles car imperceptibles par nos sens. On comprend donc aisément que ce type de compression ne s’applique qu’aux fichiers audio, aux images, et aux films. De plus, une altération moindre de la qualité audio ou vidéo peut permettre de très importants taux de compression (supérieurs à 10).
 

 

Les formats les plus répandus sont bien évidemment le mp3 pour la musique, le jpeg pour les images et le mpeg-4 pour la vidéo (utilisé par divX et Xvid).
divx 

 

Toutes ces méthodes de compression reposent sur de très nombreux phénomènes de nos sens comme notre plus ou moins bonne sensibilité à différentes couleurs ou lumière ou bien notre sensibilité à différentes fréquences sonores. Néanmoins, toutes les techniques de compressions avec pertes utilisent la quantification pour réduire drastiquement la taille des fichiers puis une technique de codage sans perte à la fin peut être appliqués : c’est par exemple le cas dans les images jpeg où un codage RLE puis Huffman sont appliqués après la quantification.
 

 

glu.jpg  
 Mon chat en jpeg qualité 8 (44ko) et qualité 0 (21ko)
 
La quantification numérique

Pour coder une information sonore ou visuelle en format numérique, il faut procéder à une discrétisation du signal d’origine. Cette expression barbare, également appelée quantification, signifie que pour transformer un son ou une suite d’images (analogique) en format numérique (une suite binaire de « 1 » et de « 0 »), il faut « découper » l’information en petits éléments dans le temps mais aussi dans l’espace. Par exemple, un son étant caractérisé par une amplitude et une fréquence (voir billet précédent sur le son), il faut segmenter le signal dans le temps ainsi que son amplitude (quantification temporelle et spatiale).

quantif.jpg  
 

 

 

Quantification d'un signal

En général, on choisit un débit de données cible à atteindre et le pas de quantification adéquat est ensuite déduit. La réduction du débit de données d’un média sonore ou visuel entrainera donc une réduction de sa taille mais également une dégradation de sa qualité en conséquence.
  

Exemple de quantification dans les mp3

Outre différentes techniques utilisées par le format mp3 pour réduire la taille des fichiers audio sans altérer notre perception des morceaux, la quantification est l’étape capitale de compression.

Par exemple pour un morceau de musique que l’on souhaite compresser en mp3, si on choisit un débit cible de 192 kbits / seconde, la qualité du morceau reste très bonne tout en réduisant le fichier CD de base d’un facteur 7 environ (il faut une oreille experte et un très bon matériel Hi-Fi pour déceler la différence). En revanche, si l’on compresse ce même morceau à un débit de 32 kbits / seconde, la qualité sera médiocre, toute personne verra immédiatement la différence mais le fichier sera 24 fois plus petit ! 
Par Benjamin Bradu - Publié dans : Sc. de l'information
Ecrire un commentaire - Voir les 4 commentaires
Mardi 26 mai 2 26 /05 /Mai 21:42

Un nouveau site vient de voir le jour sur la toile : Wolfram Alpha. A priori, rien d'exceptionnel, mais le principe et l'efficacité de ce « moteur » m'a plutôt impressionné... Evidement, il n'a pas réponse à tout, mais quand même... Quand on tape « Dieu » (God anglais) on apprend que « god » est le 486ème mot le plus cité en anglais à l'écrit et le 273ème mot le plus cité à l'oral (un mot sur 3300) mais Wolfram ne nous dit pas qui il est et s'il existe...

Je me suis retrouvé un peu bête la première fois devant la barre de recherche, je ne savais pas quoi taper alors j'ai essayé simplement « helium » et le site m'a donné sa place dans le tableau périodique des éléments avec toutes les propriétés atomiques, chimiques, thermodynamiques et magnétiques de l'hélium avec ses isotopes de manière joliment présentée avec toutes les unités configurables, plutôt pas mal, mais bon, rien d'extraordinaire non plus (j'aurais été impressionné qu'il me donne la variation de chaleur spécifique en fonction de la température). J'ai également tenté « helium phase diagram » et il m'a fourni un beau diagramme de phase de l'hélium (nettement mieux que ceux qu'on trouve habituellement sur le web).

 

Le site se définit comme un moteur de calcul des connaissances (computational knowledge engine). En gros, c'est un peu une sorte de moteur de recherche comme Google mais Wolfram permet de calculer tout ce qui peut être calculé à propos de n'importe quoi, c'est le site qui le dit : make it possible to compute whatever can be computed about anything. Désolé, le site est uniquement en anglais pour l'instant.


Wolfram fournit un résultat unique comme une encyclopédie, contrairement à un moteur de recherche classique qui fournit une quantité impressionnante de sources où l'on peut souvent se perdre. L'idée est de faire une requête sur une question, quelle qu'elle soit et d'y répondre le mieux possible. Les questions peuvent être évidemment scientifiques mais pas seulement, Wolfram répond aussi à des questions de géographie, de musique, de sport, d'histoire, etc. Bref, c'est un peu comme un super Quid. La réponse est ensuite téléchargeable en format pdf.

Etant proche de la Suisse et aimant le gruyère, j'ai donc tenté de connaitre la densité du gruyère suisse, j'ai donc tapé « cheese gruyère density » et Wolfram m'a répondu sans ciller 0,92 g/cm3:


L'algorithme utilisé par Wolfram utilise pas moins de 5 millions de lignes de codes écrites en langage Mathematica pour ceux qui connaissent, sans commentaires.... Le tout est relié à une base de données qui contient (selon le site) environ 10 milliards d'entrées et plus de 50 000 types d'algorithmes et de modèles. J'ai également tenté de taper la ville où j'habite (Gex) et j'ai eu ma réponse :

Il y a également, toutes les possibilités de calcul de manière formelle comme dans Mathematica. J’ai tapé « cos(2x) + sin(x) + tan(x)^2 » et Wolfram m’a répondu pleins de choses, entre autres :

En revanche, des déceptions, je n’ai rien trouvé en tapant : superfluid helium, Euler flow et Théodulf (évêque d’Orléans pendant la Renaissance carolingienne).

 

A vous de jouer maintenant en vous amusant un peu avec ce nouvel outil du web: http://www39.wolframalpha.com/

Par Benjamin Bradu - Publié dans : Sc. de l'information
Ecrire un commentaire - Voir les 4 commentaires
Mardi 23 octobre 2 23 /10 /Oct 22:42

Le Nouveau Petit Robert 2007 sur mon bureau dit :

Internet : « n.m. – répandu vers 1995 ; mot anglais américain de internetworking (réseau). Anglicisme. Réseau mondial télématique utilisant le même protocole de communication »

Web : «n.m. – 1994 ; abréviation anglaise de World Wide Web (toile d’araignée mondiale). Anglicisme. Système basé sur les liens hypertextuels, permettant l’accès aux ressources du réseau Internet ».

InternetMonde.jpg

A la fin des années soixante, aux Etats-Unis, un premier réseau informatique, appelé ARPANET voit le jour. Ce réseau fut le premier a échanger des « paquets » de données informatique entre différentes universités américaines.

En 1974, le protocole TCP/IP voit le jour. On peut juste retenir que TCP/IP (Transmission Control Protocol / Internet Protocol) est un ensemble de 2 protocoles : le protocole TCP permet d’établir une connexion, de découper les données à envoyer en différents paquets alors que le protocole IP s’occupe du transport de ces paquets sur le réseau pour trouver le meilleur chemin, il ne se préoccupe pas du contenu des paquets.

A la fin des années quatre-vingt, la NST (National Science Foundation) ouvre le réseau ARPANET pour tous les américains désirant se connecter en mettant en service 5 serveurs informatique sur le sol américain. Ce réseau ayant remporté un grand succès, il fut étendu et a donné naissance à INTERNET, un réseau où tous les ordinateurs peuvent communiquer dans le monde avec même langage : le TCP/IP. A ce stade, on ne parle pas encore de site Internet. Ces protocoles de communications doivent ensuite être exploités par ce que l’on appelle une couche application (comprenez un programme informatique). Au début, Internet permettait uniquement à des personnes (le plus souvent des scientifiques) de pouvoir échanger des fichiers informatiques entre eux.
internet.jpg
En 1989, à Genève, au CERN (l’Organisation Européenne pour la Recherche Nucléaire), un informaticien dénommé Tim Berners-Lee propose de mettre en place un système de liens hypertextes ayant pour objectif de simplifier l’échange des informations au sein du réseau du CERN. Le HTTP (Hypertext Transfer Protocol) était né. Il fit cette proposition au CERN en mars 1989, consultable en intégralité à cette adresse : http://www.w3.org/History/1989/proposal.html. Tim Berners-Lee inventa ensuite un système de navigation pour passer d’une page à l’autre à travers ces fameux liens hypertextes. En mai 1990, en partenariat avec un autre ingénieur système du CERN, Robert Cailliau, le système est baptisé World Wide Web, le fameux WWW des adresses Internet. http://info.cern.ch/ est l'adresse du tout premier site et serveur Web, qui était hébergé par un ordinateur NeXT du CERN.

Tim.jpg Tim Berners-Lee  et son ordinateur NeXT en 1990 exposé au CERN à Genève

A cette époque, le CERN commençait à utiliser le TCP/IP et il était en train de se connecter sur Internet : le projet WWW allait s’étendre et devenir ce que l’on connaît : une gigantesque toile d’araignée. En 1991, le premier serveur Web non-européen voyait le jour aux Etats-Unis en Californie, hébergé au SLAC (Centre de l'accélérateur linéaire de Stanford). Il y a 15 ans, en 1992, il y avait 26 sites web dans le monde (voir la liste) !! Fin 1993, on dénombre 623 sites web, puis 3 000, 23 000, 230 000, plus de 1 millions de sites en 1997 et désormais on en compte plus de 110 millions. Le nombre d’utilisateurs a augmenté encore plus vite, selon le cabinet d’analyses Research and Markets, le nombre d’utilisateurs d’Internet pourrait grimper à un joli 1,35 milliard en 2007.

Aujourd’hui, le Web n’a plus grand chose à voir avec son aspect originel et ses utilisations sont bien plus diverses que ce à quoi ses concepteurs s’attendaient. Il a été créé pour naviguer dans des informations concernant la physique des particules et maintenant c’est un véritable commerce mondial qui a lieu sur le Web. Une entreprise non présente sur le Web est une entreprise qui n’existe pas !!

On parle également du Web 2.0.
La définition est quelque peu délicate car il y a beaucoup de désaccords mais grosso modo, le Web 2.0 est un web non plus statique mais entièrement dynamique ou chacun possède ses propres données et peut interagir avec d’autres utilisateurs pour créer ainsi différents réseaux sociaux. Techniquement parlant, les sites Internet faisant parti du Web 2.0 possèdent un squelette graphique (un template) compatible avec toutes les plates-formes et le contenu des pages évolue en fonction de bases de données dynamiques qui changent constamment en fonction des différents utilisateurs. Le Web 2.0 ne contient pas vraiment des « sites » mais plutôt des « services ». En exemple, on peut citer Wikipédia, Picassa, LinkedFeed, DailyMotion, YouTube

 
Par Benjamin Bradu - Publié dans : Sc. de l'information
Ecrire un commentaire - Voir les 2 commentaires
Lundi 27 février 1 27 /02 /Fév 17:54

Bon, l’école est gratuite depuis 6 juin 1881, puis le 29 mars 1882 elle devient obligatoire de 6 à 13 ans dans un environnement laïque grâce à Jules Ferry (attention ne SURTOUT pas confondre avec le Ministre de l’Éducation Nationale du gouvernement Raffarin : Luc Ferry, philosophe il paraît). Donc grâce à Jules, c’est l’amorce de la véritable démocratisation de l’enseignement. 

Oui, l’éducation c’est la solution pour se libérer, penser par soi-même. C’est indispensable pour mener une vie de manière autonome. Après, le problème c’est l’accès au savoir, à la culture. Avant cet accès était coûteux et réservé aux classes supérieures. Désormais il y a Internet accessible à tout le monde. Imaginez un peu si les gens d’il y a cinquante ans avaient eu une encyclopédie Wikipedia à portée de main ! Les nantis pouvaient s’acheter une encyclopédie Universalis papier actuellement à 2940€ pour 28 volumes totalisant 30 000 pages alors que l’équivalent en DVD avec tous les Machins multimédias en plus coûte 130€ !! Et oui, dans Universalis vous pouvez dégoter toutes les équations et les explications de toute la physique, la chimie… Enfin c’est dingue quand même ! Surtout quand on voit le prix d’un bouquin de Science ! Je ne sais pas si vous savez qu’un bouquin de physique dans un domaine spécialisé ça coûte la peau des fesses. Dans un cours, cette année on nous demandait un bouquin impossible à trouver en bibliothèque (Non Linear System, Hassan K. Khalil) qui coûte la modique somme de 128$ soit 108€. Evidemment, tout le monde ne peut pas l’acheter !

Mais bon, la culture n’est plus une question d’argent de nos jours mais une question de niveau social et d’intégration. Eh oui, les jeunes qui vivent dans les banlieues peuvent avoir le net et donc un accès gigantesque à la culture mais ils l’utilisent pour aller sur le site Internet de Skyrock ou de Claudia Choux Fleurs (je devrais demander a Skyrock une redirection vers Wikipedia mais ils ne vont pas vouloir à mon avis…). Bon ce n’est pas une généralité bien sûr, je rentre dans des gros clichés et stéréotypes mais il y a un peu de vrai. Je pense qu’on ne se rend pas compte de la chance que l’on a d’avoir à portée de clic le savoir entier de l’Humanité. Il en est de même pour l’information et l’actualité. Etant exilé en Espagne, je peux lire les articles du Monde gratos sur le Net tous les jours et je peux écouter France Inter en live également disposant ainsi de toutes les informations françaises en temps réel, et cela en étant n’importe où dans le monde.

Enfin Internet est peut être comme le disent certains réacs une ouverture à la débauche avec les sites de cul et une possibilité pour les terroristes de communiquer très facilement. Mais pour voir les choses sous cet angle, il faut vraiment être complètement demeuré ! Internet (le système d’interconnexions multiples) a été créé à la base par les Américains pour diffuser des articles scientifiques et le Web (le système permettant de surfer sur des sites Internet avec un navigateur) a été inventé au CERN pour démocratiser l’accès aux informations en facilitant l’usage et en le rendant agréable (un site avec des images bien présentées est tout de même plus agréable qu’un fichier texte rempli de signes cabalistiques). Après il y a forcement des problèmes de législation, de droits et de liberté qui arrivent car le Net n’est pas propriétaire et ne dépend d’aucun pays donc comme tous les pays possèdent des lois différentes eh bien c’est un beau bordel. Quand on voit que le gouvernement chinois a passé des accords avec Google et avec Wikipedia pour interdire la recherche sur certains mots clefs qualifiés « interdits » par le gouvernement, il y a un véritable problème. Exemple de censure Google en Chine : « Démocratie » et « Droits de l’Homme » ça se passe de commentaires…. Reporters Sans frontière réagit face à cet outrage à la liberté d’expression :

“Reporters sans frontières est écoeuré d’apprendre que Google a décidé de lancer en Chine une version censurée de son moteur de recherche. Désormais, les internautes chinois devront se contenter des contenus validés par les autorités de Pékin. Exit les informations sur le Tibet, la démocratie ou les Droits de l’Homme en Chine.”

Mais bon, comme disait Louis de Funès dans un film dont j’ai oublié le titre, “les pauvres sont faits pour être très pauvres et les riches pour être très riches”. Et on pourrait alors dire avec le gouvernement chinois “Les incultes sont faits pour être ignares et les libertés sont faites pour être supprimées”. C'est vraiment triste alors qu’Internet est un formidable outil pour assouvir ses soifs de connaissance...

Par Benjamin Bradu - Publié dans : Sc. de l'information
Ecrire un commentaire - Voir les 4 commentaires
Dimanche 26 février 7 26 /02 /Fév 03:44

Je ne sais pas si vous êtes au courant mais le nombre d’articles scientifiques qui paraissent chaque mois est faramineux (tant en presse de vulgarisation que dans les revues scientifiques spécialisées). Tout est-il bien contrôlé ? Comment s’assurer que ce qui est écrit est vrai ? Eh bien, tout d’abord, la véracité des articles est directement proportionnelle à la notoriété du magazine. Comme les magazines renommés permettent une grande diffusion dans le monde, ils sont très convoités et par conséquent, l’équipe en charge d’analyser les articles avant publication est plus sévère et souvent composée de personnes très spécialisées. Les deux plus grands magazines mondialement reconnus sont Nature et Science, deux magazines américains couvrant tous les domaines scientifiques. Ces deux « géants » de la Science ne sont pas comparables aux autres. Science par exemple est en fait le magazine de la AAAS (American Association for the Advancement of Science), la plus grande communauté scientifique du monde avec 10 millions de personnes. Mais en général les fautes se glissent plutôt dans la presse ultra spécialisée où il y a 30 pékins dans la monde au fond de leur labo qui vont vraiment comprendre l’article. Les fautes passent souvent inaperçues à cause de cela. En général dans la presse vulgarisatrice c’est assez rare de trouver des gros canulars. On trouve quelques rectifications de temps en temps dans les Errata du numéro suivant mais c’est tout.

Mais il faut toujours faire attention. Le plus bel contre exemple et donc le plus grand scandale est d’ailleurs plus que jamais d’actualité. En ce mois de Février, le clonage humain fait la Une du magazine La Recherche. Pourquoi ? Parce qu’on est revenu à la case départ sans toucher les 20 000 francs (et l’euro ?) (bien que dans ce cas ça se chiffrerait plutôt en milliards plus un prix Nobel mais bon). Je ne sais pas si vous vous en souvenez mais l’année dernière, au mois de mai, tous les journaux mettaient le clonage humain à la Une suite à un article paru dans le célèbre magazine américain Science. Le chercheur Coréen W.S.Hwang y disait avoir obtenu des lignées de cellules souches à partir d’un embryon humain cloné. Eh bien non, tout était faux, tous les documents avaient été falsifiés et les cellules obtenues provenaient en réalité d’embryons conçus par fécondation in vitro. C’est comme si Le Monde ou le Times déclarait qu’il y avait une troisième guerre mondiale et qu’en fait c’était des jeunes de banlieues qui brûlaient des voitures à Paris (toute ressemblance avec des faits réels ne serait que pur hasard).

Bref, vous avez compris, tout ce qu’on lit n’est pas la sainte parole, même si ce genre de scandale est heureusement rare. Néanmoins, dans les magazines ultra spécialisés de troisièmes catégorie il y a souvent beaucoup d’erreurs. J’ai d’ailleurs à plusieurs reprises étudié des articles en cours où le prof nous disait « Bon, faut jamais croire ce qu’il y a écrit, alors épluchez l’article et trouvez toutes les fautes » (pas les fautes d’orthographes, mais bel et bien les fautes de raisonnement ou de calcul).

En général, un article paraît dans la presse spécialisée, dans une revue bien précise et si après quelque temps le résultat paraît pertinent alors l’article est publié en vulgarisation avec des mots compréhensibles pour le commun des mortels. Pour illustrer ce cheminement, j’ai choisi un tout petit article de La Recherche du mois de février dans la rubrique Mathématiques accompagné de la publication originale :

Dans La Recherche : 

"La forme de l’oreille

Envoyons un son sur le tympan d’une oreille et mesurons la façon dont celui-ci le renvoie : peut-on, à partir de la structure du son émis et du son renvoyé, déterminer la forme géométrique du canal auditif ? Alexander Ramm, de l’université d’Etat du Kansas, vient de montrer que, sous certaines conditions, la réponse est oui. Il propose un algorithme pour retrouver informatiquement la forme du canal auditif à partir de cette analyse des sons. »

Et maintenant l’article original : http://fr.arxiv.org/PS_cache/math/pdf/0511/0511359.pdf

Je pense que si vous n’avez pas fait de prépa scientifique vous ne comprendrez que le titre (enfin si vous parlez anglais en plus). Voilà pourquoi la vulgarisation c’est cool : on peut comprendre !

Un autre exemple de publication scandaleuse a été réalisé par Alan Sokal aux Etats-Unis de manière consciente. J’ai d’ailleurs écrit un article sur son dernier livre (http://science-for-everyone.over-blog.com/article-1689690.html). Ce Alan Sokal, physicien renommé de l’université de New York en physique a décidé d’écrire un article sans queue ni tête, complètement faux en utilisant des techniques utilisées par les pseudo-sciences voulant se faire passer pour intelligentes. Eh bien l’article a été publié dans le magazine Social Text jusqu’au jour où il a révélé la supercherie en publiant un autre article expliquant pourquoi il avait fait cela et pourquoi l’article n’avait pas de consistance. Voici l’article en question qui s’appelle si on tente une traduction : « Transgresser les frontières : vers une herméneutique transformative de la gravitation quantique », faut vraiment s’accrocher pour comprendre et ça fait 40 pages :

http://www.physics.nyu.edu/faculty/sokal/transgress_v2_noafterword.pdf

et pour tous les articles et autres choses concernant ce sujet :

http://www.physics.nyu.edu/faculty/sokal/

Ca m’énerve j’aimerais vous citer plein de trucs de lui mais les bouquins que j’ai lus de lui sont restés en France chez mes parents et je n’y ai donc pas accès pour le moment. Enfin l’affaire Sokal, c’est un peu différent que notre problématique originale, son objectif était surtout de montrer que les sciences sociales permettent de publier tout et n’importe quoi.

Par Benjamin Bradu - Publié dans : Sc. de l'information
Ecrire un commentaire - Voir les 7 commentaires

Un petit c@fé ?

Rechercher

Créer un blog gratuit sur over-blog.com - Contact - C.G.U. - Rémunération en droits d'auteur - Signaler un abus - Articles les plus commentés