top of page

La Valeur de la Philosophie à l'Ere Technologique

  • Yazarın fotoğrafı: Hazal Turanlı
    Hazal Turanlı
  • 15 Ağu
  • 12 dakikada okunur
ree


Résumé


Cet article examine l'évolution technologique qui a conduit à l'émergence de l'intelligence artificielle (IA) et ses implications philosophiques. Partant de la révolution industrielle et de l'invention de l'ordinateur, il explore le rôle de l'apprentissage automatique dans la transformation des machines en systèmes capables d'imiter certaines fonctions cognitives humaines. L'analyse s'attarde sur le « problème difficile » de la conscience formulé par David Chalmers, en interrogeant la possibilité pour une IA d'éprouver une expérience subjective. Des enjeux éthiques, tels que la responsabilité morale des décisions prises par des systèmes autonomes, sont abordés à travers des exemples concrets. Enfin, l’article discute le transhumanisme et la redéfinition des limites de l’humain, soulignant la nécessité d’un dialogue interdisciplinaire entre science et philosophie pour encadrer les innovations technologiques et prévenir une dérive dogmatique de la science.


Mot-clés : Intelligence artificielle, apprentissage automatique, conscience, problème difficile, expérience subjective, éthique, transhumanisme




Introduction


La vie quotidienne développe toujours selon les différents besoins de moment. Elle a une nature cumulative qui est construite par des différentes nouveautés de différentes époques. Toutes les petites nouveautés jouent un grand rôle, mais certains découverts et certaines inventions sont les pierres angulaires du développement, comme la révolution industrielle. Avec la révolution industrielle, les machines sont entrées dans la vie quotidienne en changeant la place de l’homme dans le mode de production. Alors que l’homme utilisait la force musculaire pour produire, il devenait désormais, être le contrôleur de la puissance de production, c’est-à-dire les machines. Ce changement ne pas seulement augmenté la vitesse de production, mais aussi la vitesse du développement technologique, et avec elle, la vitesse de la vie.

        L’objectif du développement est d’inventer plus, mieux qu’avant. Les machines remplaçant la force humaine ont augmenté le besoin de capacités mentales humaines, comme le calcul. Mais, la vitesse du calcul de l’humain ne pouvait pas suivre la vitesse de la vie, et conduisait parfois à des erreurs. Il fallait donc, une nouvelle machine qui est capable de répondre aux besoins de calcul plus rapide, plus précise et plus efficace : l’ordinateur. Le développement suivant était une machine qui fonctionne comme le cerveau humain, qui peut faire ce qu’un ordinateur ne pouvait pas faire, et qui est mieux dans les choses qu’un ordinateur capable de faire : l’intelligence artificielle.

        Le développement de l’intelligence artificielle a accéléré la vitesse celles de futures. Dans le secteur de la programmation, une nouvelle technologie qui s’appelle l’apprentissage automatique a développé. Cette technologie est commencée à utiliser dans les domaines tels que la reconnaissance vocale et la vision par l’ordinateur. De plus, les voitures autonomes qui sont capables de prendre des décisions pour naviguer sans aucune intervention humaine sont développées. L’intelligence artificielle a aussi changé la direction de la santé. Elle est commencée à utiliser pour diagnostiquer les maladies, la découverte des médicaments, et même, la modification des corps humains. L’intelligence artificielle, en tant qu’une innovation technologique qui a été crée comme une imitation humaine, est considérée comme l’une de partie du développement par la science. Mais, ces avancées technologiques a remis en question des concepts fondamentaux de la philosophie.

        Dans cet essai, nous verrons que le développement de l’intelligence artificielle a non seulement transformée notre compréhension des technologies, mais aussi elle a soulevé des questions sur la conscience, l’éthique et la nature de l’humain. Tout d’abord, nous examinerons l’évolution technologique qui a conduit le développement de l’intelligence artificielle. Ensuite, nous analyserons la relation entre la conscience humaine et l’intelligence artificielle. Puis, nous discuterons les problèmes éthiques de l’intelligence artificielle. Enfin, nous explorerons le transhumanisme en réfléchissant sur la frontière de l’humain dans les nouvelles technologies.

 

L’apprentissage Automatique et le Développement de l’IA


        Tous les développements technologiques sont faits en imitant les compétences humaines. Tout d’abord, les machines étaient remplacées à la force de l’homme. Ensuite, les ordinateurs sont apparus à cause d’un besoin de faire les calculs plus précis et plus rapide. Même si au début, leur seul objectif était de faire de calculs, les ordinateurs ne sont plus utilisés uniquement comme les calculatrices.

Avec la base de données[1] qui est créé par des données[2] ajoutées, les ordinateurs sont devenus des espaces de stockage d’informations. Les algorithmes[3] sont conçus pour indiquer à l’ordinateur quoi faire avec ces données. En d’autres termes, les humains contrôlaient la manière dont ces données seraient utilisées, et traitées grâce à des algorithmes.

        Dans le passé, il était un programmeur qui disait aux ordinateurs quoi faire en écrivant un programme[4] dans un langage de programmation. Maintenant, au lieu d’écrire des programmes, les données sont collectées. Elles contiennent des exemples qui oriente l’algorithme quoi faire. Cet algorithme contrôle automatiquement le programme appris pour correspondre à ce que représente ces données. Cette nouvelle méthode de l’apprentissage s’appelle l’apprentissage automatique (machine learning).

        L’apprentissage automatique a donné aux ordinateurs la capacité d’adaptation et d’amélioration des données sans avoir besoin une intervention extérieure. Par conséquent, les ordinateurs ont commencé à fonctionner comme des cerveaux humains, par trouver la connexion entre deux donnés, et par l’auto-apprentissage. En d’autres termes, l’apprentissage automatique a rendu possible le passage d’un ordinateur qui apprend avec des programmes, à une « intelligence » artificielle qui imite les capacités d’apprentissage du cerveau humain. Par conséquent, pour comprendre l’IA, il faut d’abord comprendre le cerveau humain.

 

La Relation Entre la Conscience et le Cerveau Humain


        Le cerveau humain a une structure flexible et complexe en raison de l’évolution. Il est constitué de millions de neurones[5] et de synapses[6] qui peuvent remplir nombreuses fonctions en parallèle, et de manière interactive avec les autres. Donc, le cerveau apprend les informations en faisant les nouveaux connexions complexes entre les différents neurones. Cette complexité de connexions rend difficile à étudier le cerveau humain.

        Disons qu’une personne commence à faire du vélo pour la première fois. Au début, puisque cette personne est en train d’apprendre, une activité neuronale intense est observée dans différentes parties du cerveau. Cependant, une fois que cette personne a appris à faire du vélo, c’est-à-dire lorsqu’elle en a pris comme une habitude, le cerveau commence à automatiser ces mouvements neuronaux. En effet, les connexions nécessaires ont été faits lors de l’apprentissage de cette activité. De plus, des groupes de neurones différents, et moins nombreux qu’avant ont commencé à être actifs.

        En somme, la neuroscience peut expliquer les fonctions de différentes parties du cerveau et les connexions entre les neurones, mais ne peut pas expliquer comment se produit l’expérience subjective (qualia). Cette défiance est apparue particulièrement avec le concept de « Hard Problem of Consciousness » de David Chalmers.

 

Les Problèmes sur la Conscience et le Rôle de la Philosophie


        David Chalmers propose qu’il existe deux types de problèmes pour comprendre la nature de la conscience : les problèmes faciles (easy problems) et le problème difficile (hard problem). Les problèmes faciles sont principalement utiles pour comprendre les étapes fonctionnelles du cerveau. Par exemple, « Comment une personne prend-elle des décisions ? », la question est considérée comme « facile » parce qu’il est possible de trouver une réponse scientifique avec les recherches.

        Cependant, la neuroscience ne peut pas expliquer entièrement comment l’expérience subjective de la conscience (qualia), et les expériences internes se produisent. Le problème difficile (hard problem) essaye de le comprendre. Chalmers définit le problème difficile (hard problem) dans son livre The Conscious of Mind, comme suit :


The hard problem is the problem of experience. Why should physical processing give rise to a rich inner life at all? Why does it feel like something to be alive and conscious, as opposed to nothing at all? (Chalmers, 1996, p.7)


        A partir de cette citation, pour expliquer le problème difficile, il est nécessaire d’examiner le concept d’expérience subjective (qualia). Qualia est l’essence des expériences individuelles et intérieures. Par exemple, voir le couleur rouge, goûter un gâteau sucré et ressentir de la douleur ; tout ces sentiments et perceptions sont subjectif pour chaque individu. Donc, ils ne peuvent pas être observés de l’extérieur. A partir de qualia, Chalmers pose la question qui construit le problème difficile : Comment les activités physiques du cerveau, créent-elles une expérience subjective ?

        Chalmers souligne que la science ne peut pas expliquer la nature subjectives de ces expériences. Les explications scientifiques peuvent observer ce qu’une personne voit et ressent, mais ne peut pas expliquer exactement, ce qu’une personne ressent réellement. Donc, ce qu’une personne ressent n’est pas directement lié aux activités physiques du cerveau. Par conséquent, cette théorie est inadéquate.


Physical processes alone cannot explain why we have qualitative expériences. We need a theory that accounts for the subjective, experiential aspects of consciousness, for what it is like to be an organism with a mind. (Chalmers, 1996, p.10)


        Ainsi, chez Chalmers, puisque la nature de la conscience ne peut pas être expliqué, par les processus neurologiques, et les activités cérébrales, il faut trouver une autre théorie. Cette théorie doit être capable d’expliquer la subjectivité de la conscience, et de trouver un autre moyen de la recherche qui va créer cette théorie. Dans cette situation, la science laisse sa place à la philosophie. Donc, le problème difficile est une enquête philosophique qui vise à comprendre le lien entre le fonctionnement physique du cerveau, et la nature subjective de la conscience.  


Les Problèmes Liés à la Conscience de l’Intelligence Artificielle


        Le fait que la définition de la conscience ne corresponde pas à une structure physique brouille les frontières entre l’humanité et la technologie. Cette situation peut engendre des résultats non seulement philosophiques, mais aussi sociales, culturels et éthiques. L’intelligence artificielle qui est conçue comme une imitation des comportements humains, de leurs émotions et de leurs modes d’apprentissage se trouve au cœur de ces problématiques. Si une intelligence artificielle est consciente de sa propre existence, elle est également consciente des décisions qu’elle prend. Cette conscience implique qu’elle doit assumer la responsabilité des conséquences de ses décisions.

        En 2018, une voiture Uber en mode autonome a percuté Elaine Herzberg et causé sa mort. Elle traversait la rue avec son vélo où il n’y avait pas de passage pour piétons. Le véhicule a détecté Herzberg non pas comme un piéton, mais comme un « objet non identifié », et le système n’a pas ralenti pour éviter la collision. La chauffer de sécurité du véhicule ne pouvait pas intervenir dans l’accident parce qu’il a cessé de surveiller le contrôle du véhicule en occupant son téléphone. Après cet accident, le chauffeur de sécurité a été poursuivi, et Uber a conclu un accord d’indemnisation avec la famille de Elaine Herzberg.

        Tandis que les autres perspectives ne nous mènent qu’à un certain point, la philosophie nous permet de réfléchir aux nombreux aspects différents de cet accident. Bien sûr que le conducteur de sécurité est coupable de ne pas avoir assumé sa responsabilité, mais est-il le seul responsable ? L’équipe de programmation qui développe l’algorithme de l’intelligence artificielle de cette voiture doit aussi être responsable éthiquement. Il n’est pas question de savoir si l’intelligence artificielle est coupable ou pas de cet accident, car elle est conçue pour fonctionner et prendre des décisions dans certaines limites. Alors, ne considérons-nous pas l’intelligence artificielle comme responsable dans ces limites ? En tant qu’être un algorithme qui apprend à partir de données, l’intelligence artificielle ne peut pas comprendre éthiquement les concepts du bien et du mal. Autrement dit, lorsque l’intelligence artificielle prend une décision, elle n’agit pas en pensant que le résultat sera éthiquement bon ou pas comme les humains. Elle seulement met au place les pièces de puzzles, comme John Searle l’a souligné dans son expérience qui s’appelle « Chinese Rooms[7] ».

        Les valeurs éthiques des humains sont une combinaison des modes culturelles, sociales et biologiques. Ces valeurs éthiques peuvent être transférée à l’intelligence artificielle par le biais d’algorithmes comme souhaité. Par exemple, c’est très facile de développer une intelligence artificielle raciste. Dans ce cas, Ce ne serait pas l’intelligence artificielle elle-même qui est responsable de son racisme, mais bien la personne qui a écrit son algorithme.

        En revanche, la réflexion philosophique poserait la question suivante : « Une intelligence artificielle qui est capable d’apprendre, ne pourrait-elle pas comprendre que le racisme entraîne de nombreuses conséquences négatives, et cesser d’être raciste ? ». Cela dépend des caractéristiques de son algorithme. Donc, l’algorithme dessine les frontières des fonctions de l’intelligence artificielle. Le problème difficile (hard problem) a ambigu la définition ambiguë de la conscience, et, a rendu possible la question de la conscience de l’intelligence artificielle. Cependant, la programmation de son algorithme, et ses données sont réalisées par les humains. Cela montre que l’intelligence artificielle ne possède pas de pensées conscientes.

        D’un autre côté, nous pouvons en dire pour les humains aussi. En fin de compte, l’homme possède la structure de pensée de son environnement. En d’autres termes, il pense selon les données qu’il reçoit de son entourage, et il est difficile de sortir de cette structure de pensée. Donc, n’y-a-t-il pas une différence entre l’intelligence artificielle et l’homme ? Même si ces deux processus d’apprentissage se ressemblent, ce qui est différence c’est que l’homme apprend des informations externes avec un processus interne. Les humains non seulement apprennent les informations de son environnement, mais aussi ils intègrent les situations biologiques et émotionnelles, qui sont propre à chaque individu.  

        En effet, l’intelligence artificielle peut répondre à la question « Que ressentons-nous quand nous voir une fleur ? » en se basant sur les informations qu’elle connaît. Cependant, cette réponse ne contiendra pas d’une expérience subjective de la fleur. Même si les sensations qui sont évoqués en voyant une fleur pouvaient être transformées en un programme informatique, ce sera un enseignement émotionnel externe. Donc, nous n’aurons aucune connaissance des expériences internes. C’est pourquoi, ce ne serait pas correcte de discuter des émotions, et de la conscience de l’intelligence artificielle dans une perspective humaine. Ce sont les termes qui sont utilisés pour étudier l’être humain. Donc, la philosophie, lors de recherches sur l’intelligence artificielle, est chargée de les réexaminer, de les redéfinir ou, si nécessaire, de trouver de nouveaux termes.


Le Transhumanisme et la Modification du Corps Humain


        L’intelligence artificielle est utilisée comme un instrument qui développe les humains dans certains domaines. Avec les développements des études sur la biotechnologie, une idée a émergé : le transhumanisme. C’est une idée qui vis à dépasser les limites biologiques, émotionnelles et mentales des humains grâce aux développements technologiques. Les modifications génétiques qui servent à traiter, ou même prévenir les maladies ; l’installation des implants basés sur l’intelligence artificielle pour aider le cerveau humain à renforcer le mémoire ; et, les biotechnologies pour allonger la durée de vie sont des applications exemplaires de cette idée.

        Bien que cette idée vise à bénéficier à l’humanité en utilisant la technologie, elle a ouvert les nouveaux débats philosophiques. Tout d’abord, la combinaison des humains et de la technologie brouille les frontières entre les deux. Par conséquent, un « posthumain » a émergé au-delà de l’être humain d’aujourd’hui. En ce sens, le posthumain peut être similaire au concept d’Übermensch[8] de Nietzsche. Évidemment, cette situation a conduit la philosophie à remettre en question la définition de l’humain. Si nous modifions les caractéristiques naturelles des humains, pouvons-nous toujours parler du même humain ? Ce qui a posé cette question, ce n’est pas la science, c’est la philosophie. Donc, il n’y aura pas une réponse précise. Pour que les humains font des modifications sur leurs corps, il y aura des idées très similaires à celles que nous pourrions dire au navire de Thésée[9].


        Pour conclure, le développement de l’intelligence artificielle, l’apprentissage automatique sont causés des multitudes des questions techniques, éthiques et philosophiques. Ces questions ne peuvent pas être répondus par une seule discipline, ils nécessitent une travaille multidisciplinaire. La science et la philosophie, ce sont les disciplines qui font une coopération pour développer les nouveautés, et résoudre les nouveaux problèmes qui sont évoqués. La science nous aide pour créer des systèmes capables d’apprendre, de simuler certains aspects de l’intelligence humaine et de dépasser ses limites biologiques. Cependant, ces capacités d’un ordinateur ne résolvent pas les questions profondes sur la nature de la conscience, de l’expérience subjective et de la responsabilité morale. C’est ici que la philosophie intervient. Elle apporte des cadres conceptuels qui permettent de comprendre ce qui signifie la conscience, de la moralité des décisions prises par une machine et de redéfinir ce que nous comprenons par « intelligence ». L’explication de ces notions requièrent une réflexion, elles ne peuvent être trouvées dans un algorithme.

        Ainsi, la science nous aide à comprendre comment les nouvelles technologies fonctionnent et comment elles peuvent être améliorés ; la philosophie nous aide à réfléchir sur les implications de ses utilisations, de son existence et de formuler des nouveaux cadres moraux. Par conséquent, la science se focalise surtout sur les questions « comment », et la philosophie s’attache au « pourquoi ». Donc, le rôle de la philosophie est de construire une perspective critique en posant des questions fondamentales de nos croyances sur les nouveautés, et de créer des débats au-delà des aspects techniques des découvertes scientifiques. Si la science peut développer les nouveautés, c’est la philosophie qui nous guide dans leurs développements dans l’avenir. En d’autres termes, la philosophie empêche la science de se transformer en croyance dogmatique. Ensemble, la science et la philosophie offrent les solutions sur les défis éthiques et sociaux qui sont créés par les technologies émergentes.

 

Bibliographie

Alpaydın, E. (2021). Yapay öğrenme. Tellekt.

Bringsjord, S. et Govindarajulu, N. S. (2018). Artificial intelligence. Stanford Encyclopedia Of Philosophy. https://plato.stanford.edu/entries/artificial-intelligence/

Chalmers, D. J. (1996). The conscious mind : In search of a fundamental theory. Oxford University Press.

Doğan, M. (2020). Yapay zeka ve bilinç problemi. Çizgi.

Franssen, M. et Lokhorst, G. (2023). Philosophy of technology. Stanford Encyclopedia Of Philosophy. https://plato.stanford.edu/entries/technology/#IntrPhilSciTechDiffRelPhil

Gordon, J. et Nyholm, S. (2017). Ethics of artificial intelligence. Internet Encyclopedia Of Philosophy. https://iep.utm.edu/ethics-of-artificial-intelligence/

Hauser, L. (2005). Chinese room argument. Internet Encyclopedia Of Philosophy. https://iep.utm.edu/chinese-room-argument/

Hauser, L. (2020). Artificial intelligence. Internet Encyclopedia Of Philosophy. https://iep.utm.edu/artificial-intelligence/#SSH3b.vii

More, M. (2013). The philosophy of transhumanism. University Of California, Los Angeles.


[1] La base de données est un système qui est organisé pour stocker, gérer et accéder à des informations.

[2] Les données sont des informations sous forme de chiffres, de texte ou d’autres formats. Pour que des données acquissent du sens, il faut qu’ils soient analysés.

[3] Un algortihme est une série d’étapes ou d’instructions qui permet de traiter des informations utiles, à partir des données.

[4] Un programme est une implémentation concrète d’un langage de programmation qui permet d’exécuter l’algortihme sur un ordinateur.

[5] Les neurons sont les cellules nerveuses qui transmissent des signaux électriques et chimiques, et qui assurent la communication le cerveau et le corps.

[6] Les synapses sont des jonctions entre deux neurones qui permettent la transmission des signaux nerveux.

[7] C’est un expériment qui essaye de prouver que l’intelligence artificielle n’est pas consciente, parce qu’elle fait ses décisions en choisissant les vraies réponses dans un champ de données sans réfléchir. L’expérience met en scène une personne dans une chambre qui ne parle pas chinois. Cette personne suit des règles pour donner les réponses appropriées à des questions chinois. Il semble que cette personne comprenne le chinois de l’extérieur, mais en réalité, elle utilise les symboles sans comprendre leurs sens.

[8] Übermensch rejette les anciennes valeurs morales et traditionelles en dépassant ses propres limites. C’est un être qui façonne son propre destion en créeant un nouveau système de valeurs.

[9] C’est une paradoxe philosophique qui discute le problème du changement et de l’identité. Selon le récit, chaque partie du navire de Thésée sont remplacées par des pièces neuves. Au final, il ne reste aucune pièce d’origine. Dans ce moment, la question est posée : Le navire, est-il toujours le même navire de Thésée ?

 
 
bottom of page