Ce mercredi 27 mars s’est tenu au Rolex Learning Center de l’Ecole Polytechnique Fédérale de Lausanne un talk des professeurs Anastasia Ailamaki et Frédéric Kaplan (Digital Humanities Laboratory) au sujet des défis posés par le traitement de données toujours plus gigantesques dans la recherche scientifique. Dans la mesure où cet événement a été filmé, mon compte-rendu en sera d’autant plus facile :

Une histoire probabiliste ?

De 6:58 à 14:20, on trouve à mon sens le coeur de la conférence, à savoir la présentation de Frédéric Kaplan du projet “Venice Time Machine”, la reconstruction de la millénaire Sérénissime grâce à la numérisation de ses exceptionnellement riches archives. A ce titre, une lecture de son dernier post est tout à fait bienvenue : Lancement de la “Venice Time Machine”.

Est posée ici la question de la place et de la pertinence de la simulation dans la méthode historique. Quelle est la valeur de l’extrapolation quand il s’agit de recréer un objet historique à partir de sources partielles ? Comment raisonner dans l’incertain (c’est évidemment la question de tout historien devant ses sources lacunaires, mais elle se pose ici dans toute sa complexité au vu de la masse informationnelle) ? Est-il possible/défendable/utile/novateur de recréer 10 “Venise potentielles” avec des taux de probabilité variables (voir 20:1022:06) ? Autant de questions passionnantes et qui, si on les aborde sans a priori disciplinaires, ouvrent des perspectives épistémologiques tout à fait fondamentales !

“Very big data”

Le titre de ce post est un clin d’oeil amusé et critique envers la débauche de superlatifs utilisés pour décrire l’indescriptible, le trop grand pour être appréhendé par les yeux du chercheur seul. A ce “big data” dont on ne sait pas encore dessiner les contours s’ajoute ici un “very big data” en forme de surenchère… “Chuck Norris a déjà compté jusqu’à l’infini, deux fois” … 😉