Précédent : introduction introduction Suivant : recherches musicales
------------------------------------------------------------------------------------------------------------------------------------------------------------
1.ORDINATEUR : représentation informationnelle de l’humain
1.0. introduction
Il est banal de constater que l’évolution technologique du XXe siècle est sans
précédent. On peut en vanter les mérites ou en dénoncer les conséquences. Pour
éviter la caricature, il faut comprendre l’intervention humaine dans cette évolution
: le rôle de ses créateurs et la résonance sociale. La machine-ordinateur est
l'objet clé de cette évolution, il est le produit d'un très grand nombre d'expériences.
Des expériences menées sur le calcul à celles menées sur la miniaturisation
de la matière conductrice ou sur la vie artificielle, c'est bien à une machine
collective que nous avons à faire. A noter que bien souvent dans l'histoire
de l'informatique et de l'ordinateur en particulier, on omet l'importance des
idées qui sont en amont : le projet cybernétique.
1.1. Projet cybernétique
Au niveau des technologies, les recherches les plus poussées sont d’abord militaires.
Etant donné l'activité militaire débordante du siècle dernier, le rôle des scientifiques
a considérablement augmenté. Leur position a été perçue comme neutre et objective,
loin des idéologies partisanes. Dans les années 1940, Alan Turing et John Von
Neumann inventent l'ordinateur. Von Neumann participait, entre autres, aux calculs
sur la hauteur exacte à laquelle la bombe atomique devait exploser pour causer
le maximum de destruction …
Le projet cybernétique (ou science du contrôle) emmené aussi par Norbert Wiener,
est de construire une réplique de l'homme via son cerveau et uniquement son
cerveau. C’est une approche de l'homme sous l'angle presque exclusif de son
intelligence, définie comme capacité à traiter et échanger de l'information,
c’est-à-dire calculer et communiquer. Le calcul va ainsi se
substituer progressivement à la perception humaine. To compute, calculer, et
son dérivé computer, calculateur sera le terme choisi pour désigner cette machine.
Computer se rapproche bien plus de la signification réelle que ne peut le faire
le terme inventé par Jacques Perret en 1956, à la demande d'IBM : ordinateur.
La cybernétique, la systémique, la théorie de la communication et de l'information
s'élaboreront sur cette nouvelle représentation que véhicule l'ordinateur. C'est
un homme purement social, sans organes, vivant sans conflits dans une société
autorégulé. C’est une position profondément égalitaire, une fusion de beaucoup
de disciplines qui va à l’encontre de toutes les hiérarchies, donc des pouvoirs.
Seulement le réel a pour habitude d'ironiser les théories, et de tronquer les
idées premières. Si on observe attentivement les conséquences profondes ou superficielles
dans le corps de la société humaine, on peut s’apercevoir de nombreuses absurdités.
>>>>"L'utopie de la communication : le mythe du village planétaire
», Philippe Breton, Paris, La découverte, 1997.
>>>>"A l'image de l'homme ; du golem au créatures virtuelles", Philippe Breton,
ed. du Seuil, novembre 1995.
L' Homme transparent
Dresde, Deutsches Hygiene-Museum, 1911
1.2. Société de l'information : constat
Un rapide constat nous dévoile certaines contradictions : d'un côté, cette représentation
informationnelle de l'humain accentue l'échange, le partage, la flexibilité
qui sont des valeurs positives et de l'autre elle crée un mépris des masses,
et propage l’idée d’un bonheur basé sur le confort individuel brisant ainsi
le lien social. Une des formes de communication qui a été le plus massivement
adoptée par la société est la publicité. Elle a toujours existée, ne serait-ce
que pour vanter ses produits par rapport à son voisin. Le hic, c'est que son
essor et surtout sa technique actuelle a été conçue par des régimes totalitaires
qui l'utilisaient à des fins de propagande. Adolf Hitler: " si vous désirez
la sympathie des masses, vous devez leur dire les choses les plus stupides et
les plus crues." On ne rigole pas avec la pub. Dans la publicité, personne ne
souhaite votre bonheur, parce que les gens heureux ne consomment pas. Elle nous
drogue à la nouveauté, entretenant ainsi un état d'insatisfaction permanent.
L'idée que tout progresse toujours n'est pas vraie, il y a du pire dans le progrès.
Certaines technologies recouvrent la technologie précédente, en améliorant certains
aspects mais perdent aussi quelque chose. Il existe des produits incassables,
leurs brevets sont rachetés, on ne les verra jamais. Les nouveaux objets ont,
quant à eux, des durées de vie calculées. La politique est complètement impliquée,
elle utilise des publicitaires pour ses campagnes électorales. Le tout communicant
ne s'intéresse pas au contenu du message, l'objectif est d'adhérer. Il récupère
toute forme de rébellion pour les intégrer. Le scandale est souvent l'allié
du succès.
>>>>"L'utopie de la communication : le mythe du village planétaire
», Philippe Breton, Paris, La découverte, 1997.
>>>>« La loi du plus fort : la société de l’image », Rick Poynor, éd. Pyramid,
2002.
>>>>"99 francs", Frederic Beigbeder, ed.grasset, 2001.
>>>>article Télérama n°2831-14 avril 2004, p31, Luc Desbenoit.
1.3. machine : modèle numérique
Revenons à la machine de Turing et Neumann. Pour créer une machine qui tend
vers l'intelligence, ils l'imaginent plutôt comme un enfant qui apprendrait,
donc, dans le langage cybernétique, qui stockerait de l'information. Turing
pense même que le siège du raisonnement se situe dans la mémoire. Pour stocker
ces informations, ils perfectionnent le modèle numérique, qui prend son origine
du boulier chinois (>>>voir).
Le modèle analogique transforme une énergie en une autre, en sympathie et en
continu, le modèle numérique transforme une énergie en une suite discontinue
ou discrète d'états "tout ou rien". Contrairement à un enregistrement analogique,
avec le numérique on peut enregistrer, dupliquer sans fin les informations,
sans y ajouter de bruits, en suivant la terminologie de la théorie de l'information.
Turing
et Neumann s’appuient sur une croyance: le cerveau fonctionnerait sur un mode
discret, par "changements d'états successifs". Neumann est persuadé que les
tubes à vide peuvent constituer un strict équivalent des neurones humains. La
perception peut, effectivement, être considérée comme une transformation d'évènements
continus en évènements discontinus. Par exemple, en deçà du seuil d'audition,
en dessous de 20 Hz, dans le domaine des infrasons, l'oreille cesse de percevoir
une vibration continue, pour la remplacer par une série de pulsations discrètes.
Pourtant, à trop prendre au pied de la lettre de telles observations, on peut
en venir à une image faussée de la perception. Les sensations ne sont pas linéaires,
on dit même qu'elles sont liées aux phénomènes physiques par des lois logarithmiques.
Toute perception est relative, elle dépend de l'âge, de l'expérience, de l'attention,
et de bien d'autres paramètres. Emile Leipp précise, à propos de l'audition,
que "contrairement à ce qui est encore soutenu couramment, et l'expérience le
montre bien, le système auditif humain n'est pas un système d'analyse spectrographique
et de mesure. Aucun auditeur au monde n'est capable de dire : "tel son à 972
Hz, 87 dB, 35 harmoniques, ce son dure 98 ms, etc... Notre intelligence ne situe
pas dans un mécanisme infaillible et objectif. Turing l’avait compris "Si une
machine n'a pas le droit à l'erreur, on ne peut attendre d'elle qu'elle soit
intelligente".
>>>>"L'utopie de la communication : le mythe du village
planétaire », Philippe Breton, Paris, La découverte, 1997.
>>>>"A l'image de
l'homme ; du golem au créatures virtuelles", Philippe Breton, ed. du Seuil,
novembre 1995.
>>>> « Acoustique et musique » , Emile Leipp, 1989, éd. Masson.
>>>> http://www.comm.uqam.ca/~GRAM
: dictionnaire des arts médiatiques.
1.4. machine électronique
Pour l'ordinateur, il a fallu trouver un matériau simple et manipulable permettant
le transport d'une grande quantité d'informations. L'électronique fût la candidate
idéale. Elle permet la circulation d’électrons, constituants minuscules de la
matière, à travers un matériau semi-conducteurs comme le silicium par exemple.
La lampe triode (1906) marque le début de l'âge électronique. Son inventeur
Lee de Forest visait la production et la transmission d'oscillations électriques
: le premier nom de la triode est l'audion. Elle a préfiguré le développement
de l'électronique qui prendra son essor avec l'invention du transistor, en 1948,
par Bardeen, Brattain et Schottsky. L'électronique n'est qu'un moyen parmi d'autres,
aujourd'hui les recherches actuelles se dirigent vers les nanotubes. Le développement
de l'électronique est une recherche de la miniaturisation.
>>>>"Interfaces homme-machine et création musicale", sous la direction de Hugues Vinet et François Delalande, Hermès Science Publication, 1999.
1.5. machine électronique programmable
Le CPU( Central Processing Unit) est le processeur de l’ordinateur. C’est un
circuit électronique, composé d’un cristal de quartz soumis à un courant électrique,
et cadencé au rythme d’une horloge interne, qui lui permet d’envoyer des impulsions.
Elles sont produites par un ensemble d’interrupteurs.
On peut se représenter leurs états de cette manière : 0 pour « faux », le courant
ne passe pas, 1 pour « vrai », quand le courant passe. C’est la notion de contacteurs
(interrupteurs) que Claude Shannon mis en évidence vers 1930. Ce codage
de l’information est nommé base binaire (>>>voir).
C’est avec ce codage que fonctionne l’ordinateur. L’homme travaille quant à
lui avec 10 chiffres (0,1,2,3,4,5,6,7,8,9), on parle de base décimale. Dans
le code binaire chaque bit est un emplacement et une taille physique dans la
mémoire. Le bit (Binary digit) est la plus petite unité d’information manipulable
par une machine numérique. Par commodité, on compte le plus souvent en octets
ou bytes en anglais, qui correspondent à huit bits. Pour vendre des produits
informatiques, certaines publicités parlent en bits uniquement pour montrer
des chiffres plus importants.
Toute information peut être décrite par des nombres et l'avantage est que des
opérations simples (x, /, +, -) se font à des vitesses incroyables. A ce niveau
ils ne connaissent que l’addition et la multiplication. Pour les autres opérations,
l'ordinateur procède au niveau du bit à une opération nommée "complément à deux
» (rend négatif un chiffre en modifiant un bit) ensuite le calcul étant très
rapide, on a l’illusion d'opérations plus complexes. Pour diviser 42 par 7,
l'ordinateur soustrait 7 de 42 (il additionne le négatif de 7 à 42 jusqu'à obtenir
0 et il compte le nombre de soustraction = 6). IMPORTANT : Le codage numérique
ne dépend pas du médium, il peut y avoir des bandes magnétiques (DAT), des supports
optiques (CD, MD), etc…. Tout signal qui est convertit en binaire n'est pas
la chose d’origine, il la représente, on parle de représentation
binaire. Avec l'ordinateur, l'homme représente ses représentations.
1.5.1 langages
L’'information qui est contenue dans un ordinateur n'est pas « visible »,
et plus généralement n'est pas accessible. Les électrons manipulés échappent
complètement à nos sens. Elle est cryptique. A la différence d'une feuille de
papier sur laquelle on écrit avec une plume des signes visibles, quand on met
de l'information dans le silicium d'un ordinateur, cette information nous échappe
si on n'a pas le moyen d'y accéder par les yeux, par les oreilles, par les gestes, donc
d'une manière sensorielle. C’est pourquoi l’ordinateur reste souvent abstrait, et son
utilisation déroute le débutant.
Pour rendre cette information accessible et en reprendre possession, on a besoin
d’un moyen pour communiquer : un langage. On dit qu’un ordinateur est une machine
multi-niveaux. Le niveau 0 est appelé niveau physique. Le langage machine et le langage
assembleur sont des langages de bas niveaux. Le langage utilisé par le processeur est appelé
langage machine. Il s’agit d’une suite de 0 et de 1 mais pour plus de clarté, il est plus pratique
de trouver un langage intermédiaire, compréhensible par l’homme, utilisant des abréviations
faciles à mémoriser de mots courants. On les appelle des langages de haut-niveau, parce qu’ils
rajoutent une couche entre le programmeur et le matériel. C’est le cas du langage C, Visual
Basic, Fortran,... qui seront ensuite transformés en langage machine pour être exploitables
par le processeur.
>>>>http://www.commentcamarche.net
: vulgarisation informatique
>>>>« The Computer Music Tutorial », curtis roads, Mit Press, 1996,
>>>>« Architecture de l’ordinateur » Andrew Tannenbaum, troisième éditions,
>>>>« Débuter en programmation », Greg Perry, éd. Campus Press,
>>>>« Acoustique et musique » , Emile Leipp, éd. Masson, 1989.
A voir aussi :
>>>>http://www.up.univ-mrs.fr/wcilsh/cours_infZ10CTE/index.htm
: notions de base en informatique : très complet
>>>>http://www.comm.uqam.ca/~GRAM
: dictionnaire en ligne sur les arts médiatiques : très complet
>>>>http://www.vulgarisation-informatique.com
: autre site de vulgarisation informatique
>>>>http://etronics.free.fr/dossiers/init/init01.htm
: initiation à l’électronique.
>>>>http://www.antipub.net
: site du mouvement anti-pub, de nombreux articles
>>>>http://www.tout-savoir.net
: site de définitions
------------------------------------------------------------------------------------------------------------------------------------------------------------
Précédent : introduction introduction Suivant : recherches musicales