|
Paradoxalement, ce n'est pas la puissance des
ordinateurs qui pourrait constituer une barrière au développement de
l'informatique, mais la capacité de mémoire.
Des projets comme Google, Twitter ou YouTube, pour ne citer qu'eux,
produisent annuellement une quantité de données évaluée entre 10 et
100 petabits (millions de gigabits). Mais selon Gene Robinson, un
généticien de l'Université d'Illinois, le secteur qui réclame la
plus grande quantité de mémoire pour enregistrer ses données n'est
ni la physique, ni l'astronomie, qui pourtant connaissent un
développement explosif, mais la biologie, et tout particulièrement
la génétique.
Pour cette étude, Gene Robinson a travaillé en collaboration avec
des mathématiciens et des informaticiens pour étudier les segments
du web qui connaissent le plus fort développement, notamment les
réseaux sociaux, les sites d'hébergement de vidéos et les systèmes
distributifs pour le traitement des informations scientifiques. Mais
ceux-ci n'arrivent pas à la cheville du volume atteint par les bases
de données ADN.
"Au fur et à mesure de l'amélioration des technologies d'analyse
d'ADN et de la diminution des prix de cette procédure, on s'attend à
une véritable explosion de la propagation des technologies de
séquençage dans la vie quotidienne et à un véritable déluge
informatique. L'unique moyen d'y survivre consiste à améliorer
l'infrastructure informatique chargée de traiter les données
génétiques", affirme le généticien.
Et il affirme que, selon des prévisions tout-à-fait réalistes, le
volume de ces bases de données ADN devrait doubler tous les 7 à 8
mois, et représenter d'ici une petite décennie une quantité qui
devra se chiffrer en exabits (milliards de gigabits). Or, entreposer
de tels volumes de données n'est pas envisageable actuellement, et
nécessitera donc une évolution des capacités de mémorisation allant
de pair avec l'augmentation de puissance des ordinateurs.
Gene Robinson fait en outre remarquer que si les astronomes et les
physiciens ont déjà mis au point des normes communes de traitement
et d'enregistrement des données, ce qui a pour effet d'éliminer de
nombreuses redondances, ce n'est pas le cas des biologistes. Il
n'existe pas encore, en effet, d'algorithme capable de trouver et de
supprimer les nombreux fragments communs ou insignifiants de l'ADN
humain, qui se trouvent ainsi enregistrés un nombre incalculable de
fois.
En conséquence, ajoute le chercheur, si ce problème n'est pas pris
en compte, le stockage des données pourrait se trouver dans une
impasse d'ici 10 à 15 ans.
Jean Etienne
|
|