L’informatique, le virtuel et les médias

Depuis l’invention des premiers calculateurs, comme la machine de Pascal, jusqu’à nos ordinateurs actuels sous toutes leurs déclinaison, l’informatique a profondément modifié la société. Par exemple l’invention des caméras numériques, même si le cinéma reste fidèle à la pellicule, a démocratisé l’image animée. Tout un monde parallèle au cinéma proprement dit s’est développé. Puis, dans l’élan de miniaturisation qui caractérise le 21e siècle, sont apparus les smartphones. Cette invention fut le plus bel exemple de l’union de l’image et de l’informatique. Peu à peu, l’informatique s’est liée avec de nombreuses disciplines. C’est ainsi qu’avec le film Matrix la technique aide à exprimer des idées et à illustrer le champ philosophique1. Gilles Deleuze disait que l’on a toujours une idée en quelque chose, qu’une idée pure n’existe pas. Le cinéma, avec son propre langage, permet donc de proposer des concepts.

Avec l’informatique déclinée sous toutes ses variantes, nous avons là un outil polymorphe, en bref un hypermédia. Aucune technologie ne peut rivaliser avec cette invention. Il serait cependant imprudent d’idéaliser l’ordinateur. La possibilité de vivre une vie à la Second Life, immergé dans un univers tout entier informatisé, pose également de nombreuses questions.

Si le concept est utile pour penser, la perception a également son mot à dire dans le processus de la connaissance. Le monde des idées, qui nous aide par exemple à identifier une table à partir du concept de table, dépend aussi de la perception. Un concept sans percept ne nous est pas d’une grande utilité. Notre monde est fait de concepts et d’outils2. Et l’ordinateur est une machine qui brasse des signes. L’informatique nous plonge dans le lieu du performatif. Ainsi ce qui se dit sur un ordinateur déclenche immédiatement une action. C’est là toute son ambiguïté. C’est une technique singulière où le langage peut être à chaque instant transformé en actions réelles et cependant également symboliques.

Le virtuel et ses avatars

La perception du monde est par ailleurs placée entre des intermédiaires lumineux que sont les écrans. De ce fait la notion du temps et de la géographie est totalement modifiée. Paul Virilio en parle dans ses ouvrages intitulés : L’inertie polaire et Ville panique. Et toute son œuvre en générale porte la marque d’un certain pessimisme. Il n’a cependant pas vu certaines composantes liées aux écrans et qui peuvent être également développées bénéfiquement. Tout est une question de pondération. Si l’écran a engendré la télévision, l’écran est aussi au service des ordinateurs et des réseaux. La grande erreur est de confondre la télévision avec l’ordinateur, même si l’on peut regarder la télévision sur un ordinateur. La télévision est un média qui ne traite aucune information et qui de plus communique à sens unique. Il n’y a qu’un seul émetteur pour des millions de récepteurs.

Pour revenir au virtuel, celui-ci se développe comme par exemple l’immersion totale dans les jeux vidéo, jusqu’à faire perdre au joueur toute perception du réel. Il est bien difficile de définir toutes les modalités de ce que l’on nomme le virtuel. Du reste, ce mot dérive du latin médiéval virtualis et signifie : « qui n’est qu’en puissance ». Le monde du virtuel serait donc un monde en puissance mais non encore réalisé. C’est une réalité en gestation, comme un pilote d’avion de ligne s’entraîne dans un simulateur avant de pratiquer son premier vol avec des passagers.

Programmer n’est pas prouver

Il y a quelques années, une revue de vulgarisation scientifique titrait sur sa page de couverture : « Programmer c’est prouver ». Ce qui signifie en d’autres termes que l’empirisme et les expérimentations ne sont plus d’aucune utilité. Créer un modèle théorique sans passer par l’expérimentation et l’observation relève de l’idéalisme. La simulation sur ordinateur n’est pas le réel, mais une simplification de celui-ci. C’est faire entrer le réel dans le cadre d’une théorie, laquelle reste réfutable.

D’autre part nous convenons que l’observation du réel est également déterminée par les schémas conceptuels. Le « réel brut » n’existe pas. Le réel se dérobe sans cesse à nous. Aussi dire qu’une simulation informatique « reproduit le réel » est-il un abus de langage. Un algorithme n’est que la mise en application d’une théorie toujours provisoire. Donc dans l’esprit du grand public, l’ordinateur « dit la vérité ». Ceci ne remet toutefois pas en question la grande utilité de cette machine. Mais de là à dire que l’ordinateur simule le réel est excessif.

Le village global est-il réellement global ?

Marshall Mc Luhan, dans son ouvrage La Galaxie Gutenberg, nous parle d’un monde communicant grâce à l’imprimerie et aux médias de masse. Cependant ce que cet auteur n’a pas prédit, c’est que loin de former un village global interconnecté, il y a en fait une nouvelle création de groupes spécifiques. A son époque, Internet n’existait pas. Lorsqu’il parlait de médias chauds et de médias froids, il n’existait en fait que quatre médias : l’imprimé, la radio, la télévision et le téléphone. A la place de tout relier, il y a une « tribalisation » de la société avec Internet. L’ordinateur est-il un média chaud ou un média froid ? Il est difficile de le dire ; c’est un mixte des deux.

Avec le nombre croissant de médias, dont le dernier est le smartphone, il existe en fait une société « atomisée ». Il n’y a en fait pas de village global comme le pensait Mc Luhan. Il n’y a jamais eu autant de groupes distincts malgré Internet. Loin d’obtenir un brassage culturel, les médias anciens et actuels sont utilisés pour reformer des groupes. Quant à la télévision, média de masse par excellence, elle ne fait que « diversion » pour brouiller les problèmes essentiels. Pierre Levy3 nous dit qu’on doit considérer le cyberespace en le distinguant « d’abord de la télévision, qui ne cesse de désigner des puissants ou des victimes à des masses d’individus séparés et impuissants ».

L’écriture manuscrite et l’ordinateur

Le papier et l’écriture servent depuis longtemps à augmenter la réalité. Mais avec l’ordinateur nous faisons un pas de géant dans cette augmentation. Car l’ordinateur n’est pas un support passif et réalise du traitement de l’information. Un traitement sur le texte, l’image et l’audio. L’ordinateur est donc un support complet. C’est un outil très efficace venant en complément du support papier, l’un n’excluant pas l’autre. D’autant plus que l’écriture manuscrite développe de nombreuses facultés très utiles dans la structuration d’un individu.

Par ailleurs des logiciels sont développés pour la reconnaissance de l’écriture, ce qui fait qu’en scannant une page manuscrite, elle peut être traduite en caractères d’imprimerie. Dans ces conditions, le clavier ne devient plus indispensable, ou tout au moins plus exclusivement.

De ce fait, le livre et le document manuscrit ont encore un bel avenir

© Novembre 2022.

1Cf Alain Badiou, Matrix, machine philosophique, éd. Ellipses, Paris, 2013.

2Cf Jean Gagnepain, Du vouloir dire : traité d’épistémologie des sciences humaines, vol. 1, Paris, éd. Livre et communication, 1990.

3Cf Pierre Levy, Qu’est-ce que le virtuel, éd. La Découverte, Paris, 1995.

 

Petite histoire des microprocesseurs et de ses défis

C’est en 1947 que fut inventé le premier transistor par les Laboratoires Bell. Personne ne se doutait encore que cette invention allait devenir capitale pour les progrès de l’informatique et le confort de notre vie quotidienne. Puis, de miniaturisation en miniaturisation, Intel crée en 1971 le premier microprocesseur, le 4004. C’est un microprocesseur de 4 bits qui permet le lancement des premiers micro-ordinateurs.

Très rapidement fut conçu un microprocesseur à 8 bits, le 8008, toujours par la société Intel, qui est au départ utilisé pour fabriquer des contrôleurs graphiques. Ce microprocesseur fut utilisé par la suite à un usage général.

L’explosion de la micro-informatique est réalisée avec l’arrivée de deux microprocesseurs, le Z80 de Zilog et le 8080 de chez Intel. Avec le Z80 naissent les premiers ordinateurs grand public de marque Amstrad qui furent un véritable coup de tonnerre dans le monde de l’informatique individuelle. Pour la première fois, l’ordinateur entrait dans les foyers et pouvait être utilisé par toute la famille, et ceci à un prix abordable. Dès lors, l’informatique n’était plus réservée aux professionnels, et nombreux étaient ceux qui s’adonnaient à la programmation en langage BASIC durant les loisirs.

A partir de ce moment, l’ordinateur eut la même place que celle de la radio ou de la télévision. Ce fut le début de la numérisation généralisée de la société, avec ses joies et ses déboires.

Dans la foulée, la société MOS Technologie fabriqua le processeur 6502 qui était utilisé par les Apple II, les Commodore PET et 64 ainsi que les consoles Atari. Ce processeur était très économique et possédait de bonnes performances par rapport à ses concurrents. Il permit en outre à Apple de prendre son essor dans le monde de la micro-informatique.

Peu après, chez Motorola sortit le processeur 68000 qui eut un franc succès puisqu’il équipait les premiers Macintosh ainsi que les Atari ST et les Commodore Amiga. Avec ces ordinateurs, le graphisme fit un pas de géant et la voie fut ouverte pour la PAO, la vidéo et le multimédia en général. Dans le même temps furent créées les premières images de synthèse et les premiers films d’animation en numérique.

Suivirent alors les processeurs de la série x86 qui sont toujours aujourd’hui développés. Du monocœur nous sommes passés au multicœur, avec des capacités de calcul toujours plus élevées. Nous approchons cependant progressivement de la limite des technologies du silicium, et d’autres matériaux sont à l’étude, comme les nanotubes de carbone ou le disulfure de molybdène.

Enfin de grands espoirs sont attendus avec l’informatique quantique qui permet de réaliser en 3 minutes un calcul qui prend 10 000 ans à un supercalculateur classique. La voie est donc ouverte à de grandes possibilités

Génération GNU/Linux

Ceux qui ont fait leurs débuts en informatique avec le CP/M, puis MS/DOS pour ensuite passer à la série des Windows sont à l’écart de la nouvelle génération GNU/Linux. Malgré un certain ressentiment à l’égard de la firme de Redmond, ces utilisateurs conservent une certaine nostalgie pour Microsoft qui a bercé toute leur jeunesse.

Avec GNU/Linux il n’en est pas de même, car nous n’avons pas affaire avec la même génération d’individus. Ceux-ci sont quasiment nés avec Internet et les ordinateurs portables. Avides de savoir et de comprendre, la philosophie de l’open source et de la licence GPL les attire tout particulièrement. Ceci par le fait qu’ils peuvent devenir acteurs et créateurs en réalisant ou en améliorant les logiciels, ce qui n’est pas possible avec les logiciels propriétaires. Car le logiciel propriétaire est par nature incestueux et reste fermé aux innovations.

Les 90 000 développeurs de Microsoft sont peu nombreux face aux développeurs sous GNU/Linux qui existent dans le monde. De ce fait, la nouvelle génération curieuse de découvertes préfère le foisonnement des logiciels open source au cloisonnement des logiciels propriétaires qui mettent l’individu dans une situation passive. La logique de profit du logiciel propriétaire n’est pas en phase avec le logiciel collaboratif qui fonctionne sous GNU/Linux. Le logiciel open source vient s’inscrire dans une mouvance plus large qui va de l’altermondialisme à l’écologie dans une société où domine la notion de réseau. Car la création et l’évolution de GNU/Linux reposent sur le réseau Internet où chacun peut participer à l’élaboration d’une portion de logiciel.

Par ailleurs, GNU/Linux favorise également les rencontres des utilisateurs par le biais d’organisations de colloques ou plus simplement de manifestations où les gens échangent des procédés qu’ils ont développés en utilisant Linux. Les fameux GUL (Groupes d’Utilisateurs de Linux – ou LUG en anglais) fleurissent un peu partout en permettant une participation active des utilisateurs. Ce qui bien entendu n’existe pas avec les utilisateurs de logiciels propriétaires qui ont tendance à être repliés sur eux-mêmes. Même si Microsoft réussit à passer en force dans les établissements scolaires, il n’empêche que de plus en plus d’écoles équipent leurs salles d’informatique avec GNU/Linux.

Qu’en est-il du modèle économique de GNU/Linux et du logiciel libre? Linux repose sur une économie de service. Quant aux divers paquets (ou logiciels) qui sont utilisés par Linux, leur économie repose sur le don et la collaboration de programmeurs bénévoles. Progressivement se développe une éthique du don. Les utilisateurs donnent de l’argent pour les logiciels dont ils sont satisfaits et dont ils souhaitent les voir évoluer. Chaque utilisateur ou institution donne selon ses moyens. C’est ce qui se passe par exemple avec le développement de l’interface graphique KDE.

Ainsi le modèle économique de Linux et des logiciels libres est-il totalement différent de celui des logiciels propriétaires, ces derniers reposant sur un système de rentes par le biais des brevets. Système de brevets que l’on retrouve en agriculture avec les OGM. Le logiciel libre participe donc à tout un courant de contestations sur la brevetabilité des productions humaines où des sociétés comme Microsoft fabriquent, selon les propos de Richard Stallman, des menottes numériques. Et le plus dramatique est que la plupart de la population ne prend pas conscience de ce phénomène. Certains vont même jusqu’à qualifier le logiciel libre d’informatique communiste.

L’informatique prenant une place sans cesse croissante dans les activités humaines, les utilisateurs ne veulent plus de logiciels brevetés et bridés. Ils aspirent à une liberté qu’apporte justement Linux et ses logiciels sous licence GPL. D’autre part, le système d’exploitation GNU/Linux est incomparablement plus performant que n’importe quelle version de Windows, il est bon ici de le souligner. Et ceci même les utilisateurs débutants l’entrevoient très rapidement.

Pour toutes ces raisons, une génération GNU/Linux est en train de naître rapidement, et qui laissera de côté les logiciels de la firme Microsoft

Interview de Richard Stallman à Milan

Voici une interview de Richard Stallman, le père du logiciel libre, qui se déroule à Milan. Dans cette interview quelques points complexes de la licence libre sont explicités et vous comprendrez mieux ce que signifie « logiciel libre », qui ne veut pas dire gratuit car les utilisateurs font des dons.

La conférence est au format audio libre .ogg. Bonne écoute.

 

Débats sur les logiciels libres

Nous vous proposons ici d’assister à une brève intervention dans un débat sur les logiciels libres dont l’ampleur est de plus en plus importante. Cliquez ici.

La biométrie pose de nombreux problèmes. Voici une conférence qui soulève les questions liées à cette nouvelle technologie. Cliquez ici.

L’April. Cliquez ici.

Voici une conférence de Richard Stallman de plus d’une heure où il entre dans les détails du logiciel libre. Cliquez ici.

 

RMLL 2015

Cette année les Rencontres Mondiales du Logiciel Libre se dérouleront à Beauvais. A l’heure où le capitalisme se déchaîne pour aliéner toujours plus les individus, il est important de maîtriser totalement les outils de communication afin de pouvoir contrer l’idéologie libérale. Ces outils de communication passant par l’informatique, il est urgent de contrer le logiciel propriétaire par le développement du logiciel libre. La totalité des systèmes d’exploitation propriétaires contiennent des malwares pour nous espionner en permanence. Seul GNU/Linux est exempte de ces malwares. Le problème est que la majorité de la population n’en prend pas conscience et qu’elle se fait avoir par les publicités tapageuses de Microsoft, de Google ou autres producteurs de logiciels qui ne sont pas libres. La surveillance de toutes nos pratiques avec l’outil informatique est une menace pour nos libertés. Pour réagir à cela, la seule solution est de répandre des logiciels qui soient totalement libres afin d’obtenir une transparence intégrale sur ce que font nos ordinateurs.

Comme les autres années, ces RMLL 2015 sont l’occasion de prendre connaissance de ce qui se fait dans le monde du Libre.

LE HOLD-UP PLANETAIRE

Nous vous proposons la lecture d’un ouvrage publié en 1998 et mis dans le domaine public qui explique le fonctionnement de l’empire Microsoft. De ce fait, vous comprendrez mieux pourquoi nous parlons des logiciels libres et du système d’exploitation GNU/Linux sur ce blog. De plus en plus de pays sur la planète utilisent GNU/Linux en remplacement de Windows. C’est une très bonne initiative et nous espérons que cela va prendre une grande ampleur. Le logiciel propriétaire mène à une impasse, et il est important que la population en prenne conscience. Microsoft est un parasite qu’il est grand temps d’éradiquer.
LE HOLD-UP PLANÉTAIRE.

Nous vous proposons ici une conférence de l’auteur du HOLD-UP PLANÉTAIRE qui vous fera comprendre l’impact des logiciels libres et du combat qu’il faut mener contre l’empire Microsoft. Cliquer ici pour visionner la vidéo.

Liens en rapport avec le logiciel libre:

https://www.fsf.org/ Free Software Foundation. Fondation créée par Richard Stallman, inventeur du logiciel libre.

https://fsfe.org/index.fr.html Free Software Foundation Europe. Fondation européenne pour le logiciel libre.

https://www.april.org/ Association défendant le logiciel libre.

https://www.laquadrature.net/fr Association qui défend les libertés numériques.

http://distrowatch.com/ Site qui donne la liste des distributions GNU/Linux et la possibilité de les télécharger.

https://linuxfr.org/ Site francophone sur l’actualité de GNU/Linux

https://fr.wikipedia.org/wiki/Portail:GNU/Linux Portail GNU/Linux qui propose de nombreuses informations.

http://framasoft.org/ Framasoft. Site comportant un très grand nombre de logiciels libres.

https://aful.org/association Association Francophone des Utilisateurs de Logiciels Libres.

https://nos-oignons.net/ Site du système Tor qui permet d’être anonyme sur Internet.

 

 

Internet et le monde du libre

Le développement d’Internet, qui au début de son utilisation servait à échanger des messages par voie électronique entre chercheurs, permet à présent, grâce à une batterie de nouveaux langages comme PHP et Javascript, de réaliser des programmes d’une grande interactivité avec les utilisateurs. Cette interactivité est née du développement des logiciels libres dont le plus connu est le système d’exploitation GNU/Linux. D’une informatique centralisée, lourde, l’orientation s’est faite vers une informatique légère et en réseaux. Cependant, la mise en service de nouveaux réseaux faisant croître la complexité de la toile ne signifie pas que la centralisation a disparu. Elle a seulement changé de forme en permettant à ceux qui ont les clefs, de surveiller tout le réseau en des endroits multiples. (suite)


© Serge Muscat 2011.

FOSDEM 2012

Les 4 et 5 février se déroule le FOSDEM 2012. Si vous n’êtes pas trop loin de Bruxelles, ne ratez pas cette manifestation des acteurs du libre dans le monde de l’informatique. A l’heure où Microsoft essaie de verrouiller les ordinateurs pour ne plus utiliser Linux avec la sortie de Windows 8, il est important que le plus grand nombre de personnes réagissent avec intelligence pour contrer ce prédateur et cet ennemi de la liberté. La suite c’est ici: FOSDEM.

Richard Stallman à Radio Campus à Lille

Richard Stallman était l’invité de Radio Campus à Lille le 23/02/2011. Voici la version intégrale de l’entretien en audio au format libre .ogg. Dans cet entretien, contrairement aux conférences, Richard Stallman prend le temps de rentrer dans les détails de la philosophie du logiciel libre. Entretien.

Vous trouverez également une conférence de Richard Stallman sur le lien suivant: conférence 2007.

Conférence sur LibreOffice à Paris au mois d’octobre 2011

Du 12 au 15 octobre 2011 se déroule une série de conférences sur LibreOffice. Des acteurs comme l’Université Pierre et Marie Curie, l’Université Denis Diderot et l’INRIA participent à ces conférences. C’est l’occasion de comprendre l’impact des logiciels libres dans la recherche informatique et de mieux comprendre l’éthique du logiciel libre comme le définit Richard Stallman.

Vous trouverez toutes les informations sur ce lien: Official LibreOffice Conference.