10 questions embarrassantes sur les réseaux de neurones : réponses au spécialiste du machine learning Igor Kotenkov.

10 questions embarrassantes sur les réseaux de neurones : réponses au spécialiste du machine learning Igor Kotenkov

Nous avons rassemblé ce que vous vouliez vraiment savoir, mais que vous étiez gêné de demander.

Dans une nouvelle série d'articles, des experts de renom répondent à des questions généralement difficiles à poser : il semble que tout le monde le sait déjà, et celui qui pose la question aura l'air stupide.

Cette fois, nous avons discuté avec le spécialiste de l'intelligence artificielle Igor Kotenkov. Vous découvrirez s'il est possible de conserver une copie numérique de vous-même pour vos arrière-petits-enfants, pourquoi les réseaux de neurones ne sont pas fiables à 100 % et si le monde est confronté à un soulèvement des machines.

Igor Kotenkov Spécialiste du Machine Learning, conférencier, auteur de la chaîne « Sioloshnaya » sur l'intelligence artificielle, l'espace et la technologie

1. Comment fonctionnent les réseaux de neurones ? C'est une sorte de magie. Comment a-t-il été possible de créer ChatGPT ? Qu’en est-il de Midjourney ou de DALL-E ?

Un réseau de neurones est un modèle mathématique inventé dans le but de comprendre le fonctionnement du cerveau d’un organisme vivant. Certes, ils se sont basés sur les idées les plus fondamentales du début de la seconde moitié du XXe siècle, que l’on peut aujourd’hui qualifier de hors de propos ou de trop simplifiées.

Même le nom « réseau neuronal » vient du mot « neurone », qui est le nom donné à l’une des principales unités fonctionnelles du cerveau. Les réseaux de neurones eux-mêmes sont constitués de nœuds - des neurones artificiels. Nous pouvons donc dire que de nombreuses idées de l’architecture moderne ont été « vues » de la nature elle-même.

Mais plus important encore, un réseau neuronal est un modèle mathématique. Et comme il s’agit de quelque chose lié aux mathématiques, nous pouvons alors utiliser toute la puissance de l’appareil mathématique pour découvrir ou évaluer les propriétés d’un tel modèle. Vous pouvez considérer un réseau de neurones comme une fonction, et une fonction est aussi un objet mathématique. L'exemple le plus simple et le plus compréhensible : une fonction qui, disons, prend n'importe quel nombre en entrée et y ajoute 2 : f(4) = 6, f(10) = 12.

Mais une telle fonction est très simple à programmer : même un enfant peut la gérer après quelques heures d'étude des langages de programmation . Et la raison en est qu'une telle fonction est très simple à formaliser, décrite en détail dans un langage simple et compréhensible.

Cependant, il y a des tâches que nous ne savons même pas comment aborder. Par exemple, je peux vous donner des photos de chats et de chiens mélangés, et vous pourrez facilement les trier en deux piles sans vous tromper. Mais qu’utilisez-vous exactement pour déterminer la réponse ? Les deux sont moelleux. Les deux espèces ont une queue, des oreilles et deux yeux. Peut-être la taille ? Mais il y a de très petits chiens et des grands félins.

Nous ne pouvons pas décrire de nombreux problèmes dans le monde réel ; nous ne connaissons pas la relation entre notre observation et une réponse « correcte » conditionnelle.

Nous savons simplement comment donner cette réponse - et c'est tout, sans penser au résultat.

Et ici, les réseaux de neurones viennent à la rescousse. Ces fonctions mathématiques sont entraînées à partir de données. Vous n'avez pas besoin de décrire la connexion entre l'entrée et la sortie. Vous préparez simplement deux piles de photographies et les trains miniatures pour donner les bonnes réponses. Elle apprend à trouver elle-même ce lien, la trouve elle-même, en fonction des erreurs qu'elle commet. Vous êtes confus entre un chat Bengal et un Rottweiler ? Eh bien, la prochaine fois, ce sera mieux !

Le processus de formation d'un réseau de neurones est un tel ajustement des « neurones » afin d'apprendre à résoudre un problème et à donner la bonne réponse. Et ce qui est le plus remarquable : il existe des preuves théoriques qu'un réseau neuronal suffisamment grand, doté d'un ensemble de données suffisamment important, peut apprendre n'importe quelle fonction complexe. Mais le plus important ici est la puissance de calcul (car un neurone peut être très gros) et la disponibilité de données étiquetées. A savoir ceux marqués, c'est-à-dire qu'ils ont la classe « chien », chat ou autre.

Nous ne comprenons pas entièrement le fonctionnement des modèles : les modèles les plus complexes et les plus volumineux comme ChatGPT sont presque impossibles à analyser.

Les meilleurs chercheurs travaillent actuellement à résoudre le problème de la « compréhension » du fonctionnement interne de leurs processus.

Mais nous savons pour quelle tâche les modèles ont été formés, quelle erreur ils ont essayé de minimiser lors de la formation. Pour ChatGPT, la tâche se compose de deux. La première consiste à prédire le mot suivant en fonction de son contexte : « maman s'est lavée... » Quoi ? C'est ce que le modèle devrait prédire.

Le deuxième objectif est de s’assurer que les réponses ne soient pas offensantes, mais restent utiles et compréhensibles. C'est pourquoi le modèle est devenu viral : il est directement formé pour générer le type de texte que les gens aiment !

Vous pouvez en savoir plus sur le fonctionnement de ChatGPT dans mon article .

2. Les neurones peuvent-ils penser ?

Les scientifiques ne comprennent toujours pas ce que signifie « penser » ou « raisonner » ni comment fonctionne l’intelligence en général. Par conséquent, il est difficile de juger si un modèle comme ChatGPT possède de telles propriétés.

Imaginons une situation : vous vous approchez de la porte de votre appartement. Pensez-vous que vous devez prendre la clé de la poche gauche de votre sac à dos pour ouvrir la porte ? Peut-on dire que décrire et représenter des actions est un processus de réflexion ? Essentiellement, nous avons établi un lien entre l’état actuel et la cible souhaitée (porte ouverte). Si vous pensez que la réponse à la question ci-dessus est « oui », alors ma réponse sera la même. ?

Il en va tout autrement lorsqu’il s’agit de pensées innovantes qui n’ont jamais été exprimées auparavant ou qui ne sont pas rencontrées aussi souvent. Après tout, pour l'exemple ci-dessus, vous pouvez facilement trouver à redire : « Oui, le modèle a lu cela 100 500 fois sur Internet et dans des livres . Bien sûr, elle le sait ! Rien d'étonnant." Au fait, comment le saviez-vous ? Est-ce parce que vos parents vous l'ont montré lorsque vous étiez enfant et que vous avez observé le processus pendant des centaines de jours d'affilée ?

Dans ce cas, il n’y a pas de réponse exacte. Et le fait est que nous ne prenons pas en compte un élément important : la probabilité.

Quelle est la probabilité que le modèle génère une pensée qui correspond à votre définition spécifique de « pensée » ?

Après tout, un neurone comme ChatGPT peut être amené à générer un million de réponses différentes à la même requête. Par exemple, « proposez une idée pour une étude scientifique ». Si une génération sur un million est vraiment intéressante et nouvelle, cela constitue-t-il une confirmation du fait qu’un modèle peut donner naissance à une pensée ? Mais en quoi cela sera-t-il différent d'un perroquet qui crie des mots aléatoires qui, non, non, et qui aboutissent même à quelque chose de compréhensible ?

D'un autre côté, les gens n'expriment pas toujours des pensées correctes - certaines phrases mènent à une impasse et n'aboutissent à rien. Pourquoi ne pouvons-nous pas pardonner cela au réseau neuronal ? Bon, d'accord, une nouvelle idée sur un million généré est vraiment mauvaise... Et s'il y en avait 100 sur un million ? Mille? Où est cette frontière ?

C'est exactement ce que nous ne savons pas. La tendance suivante se dessine : au début, on pense qu'il sera difficile pour les machines de résoudre le problème X. Par exemple, réussir le test de Turing, où il suffit de discuter avec une personne pendant une demi-heure. Ensuite, avec le développement de la technologie, les gens trouvent des moyens de résoudre, ou plutôt de former des modèles pour le problème. Et on dit : "D'accord, en fait, ce n'était pas le bon test, en voici un nouveau, les neurones ne pourront certainement pas le réussir !" Et la situation se répète.

Les technologies existantes auraient été perçues comme un miracle il y a 80 ans. Et maintenant, nous essayons de toutes nos forces de repousser les limites du « raisonnable » pour ne pas admettre que les machines savent déjà penser. En fait, il est même possible que nous inventions d’abord quelque chose, et seulement après coup, et que nous le définissions rétrospectivement comme l’IA.

3. Si les neurones peuvent dessiner et écrire de la poésie, cela signifie-t-il qu’ils peuvent être créatifs et presque comme les humains ?

La réponse repose en fait fortement sur les informations ci-dessus. Qu'est-ce que la créativité ? Quel degré de créativité y a-t-il chez une personne moyenne ? Êtes-vous sûr qu'un concierge de Sibérie peut créer ? Et pourquoi?

Et si un modèle pouvait générer un poème ou un tableau qui, sous certaines conditions, atteindrait la finale d'un concours municipal pour écrivains amateurs ou artistes pour enfants ? Et si cela n’arrivait pas à chaque fois, mais une sur cent ?

La plupart de ces questions sont discutables. Si vous pensez que la réponse est évidente, essayez de demander à vos amis et à votre famille. Il y a de fortes chances que leur point de vue ne coïncide pas avec le vôtre. Et l'essentiel ici est de ne pas se disputer .

4. Est-il possible de faire confiance aux réponses des réseaux de neurones et non plus à Google ?

Tout dépend de la manière dont les modèles sont utilisés. Si vous leur posez une question sans contexte, sans informations d'accompagnement dans le texte industriel, et attendez une réponse sur des sujets où l'exactitude factuelle est importante plutôt que le ton général de la réponse (par exemple, une séquence d'événements dans une certaine période, mais sans mention précise des lieux et des dates), alors la réponse - Non.

Dans ces situations, les estimations internes d'OpenAI montrent que le meilleur modèle actuel, GPT-4, réussit environ 70 à 80 % du temps, selon le sujet des questions.

Il peut sembler que ces chiffres sont très loin des 100 % idéaux de « précision » réelle. Mais en fait, il s'agit d'un grand pas en avant par rapport à la génération précédente de modèles (ChatGPT, basé sur l'architecture GPT-3.5) - ceux-ci avaient une précision de 40 à 50 %. Il s’avère qu’un tel bond a été réalisé dans les 6 à 8 mois suivant la recherche.

Il est clair que plus on se rapproche de 100%, plus il sera difficile d'apporter d'éventuelles corrections pour ne rien « casser » dans la compréhension et la connaissance du modèle.

Cependant, tout ce qui précède renvoie à des questions sans contexte. Par exemple, vous pourriez demander : « Quand est né Einstein ? Le modèle ne devrait s’appuyer que sur des connaissances internes qui lui ont été « câblées » au stade d’un long entraînement sur des données provenant de partout sur Internet. Une personne ne pourra donc pas répondre ! Mais s’ils me donnaient une page de Wikipédia, je pourrais la lire et répondre en fonction de la source d’information. L'exactitude des réponses serait alors proche de 100 % (ajustée pour l'exactitude de la source).

En conséquence, si le modèle est fourni avec le contexte dans lequel l'information est contenue, la réponse sera beaucoup plus fiable.

Mais que se passerait-il si vous laissiez le modèle de Google et trouviez des sources d'informations sur Internet ? Pour qu'elle trouve elle-même la source et construise une réponse à partir de celle-ci ? Eh bien, cela a déjà été mis en œuvre ! Vous n’êtes donc pas obligé de le rechercher vous-même sur Google, mais déléguez une partie de la recherche Internet à GPT‑4 lui-même. Cependant, cela nécessitera un abonnement payant.

Quant aux progrès ultérieurs dans le développement de la fiabilité des informations factuelles dans le modèle, Sam Altman, PDG d'OpenAI, estime qu'il faudra entre 1,5 et 2 ans à une équipe de chercheurs pour résoudre ce problème. Nous l'attendrons avec impatience ! Mais pour l’instant, gardez à l’esprit qu’il n’est pas nécessaire de faire confiance à 100 % à ce qui est écrit par un neurone, et de vérifier et revérifier au moins les sources.

5. Les réseaux de neurones volent-ils vraiment les dessins de vrais artistes ?

Oui et non : les deux parties au conflit en débattent activement devant les tribunaux du monde entier. On peut affirmer avec certitude que les images ne sont pas directement stockées dans les modèles, c’est juste une apparence « d’observation ».

À cet égard, les neurones ressemblent beaucoup aux personnes qui étudient d'abord l'art, différents styles, regardent les œuvres d'auteurs, puis tentent d'imiter.

Cependant, les modèles apprennent, comme nous l'avons déjà découvert, selon le principe de minimisation des erreurs. Et si pendant l'entraînement, le modèle voit la même image (ou très similaire) des centaines de fois, alors, de son point de vue, la meilleure stratégie est de se souvenir de l'image.

Prenons un exemple : votre professeur d'école d'art a choisi une stratégie très étrange. Chaque jour, vous peignez deux tableaux : le premier est toujours unique, dans un style nouveau, et le second est la Joconde. Un an plus tard, vous essayez d'évaluer ce que vous avez appris. Depuis que vous avez peint la Joconde plus de 300 fois, vous vous souvenez de presque tous les détails et pouvez désormais la reproduire. Ce ne sera pas un original exact et vous ajouterez probablement quelque chose de votre choix. Les couleurs varient légèrement.

Et maintenant, on vous demande de dessiner quelque chose qui s'est produit il y a 100 jours (et que vous avez vu une fois). Vous reproduirez ce qui est demandé avec beaucoup moins de précision. Tout simplement parce que la main n’est pas pleine.

C’est la même chose avec les neurones : ils apprennent de la même manière à partir de toutes les images, certaines sont simplement plus courantes, ce qui signifie que le modèle est également plus souvent pénalisé lors de l’entraînement. Cela ne s'applique pas seulement aux peintures d'artistes, mais également à toutes les images (même publicitaires) du programme de formation. Des méthodes d'élimination des doublons sont désormais utilisées (car la formation sur celles-ci est pour le moins inefficace), mais elles ne sont pas idéales. La recherche montre que certaines images apparaissent 400 à 500 fois pendant l'entraînement.

Mon verdict : les réseaux de neurones ne volent pas d'images, mais considèrent simplement les dessins comme exemples. Plus l’exemple est populaire, plus le modèle le reproduit avec précision.

Les gens font la même chose lorsqu’ils étudient : ils regardent la beauté, étudient les détails, les styles de différents artistes . Mais les artistes ou photographes qui ont passé la moitié de leur vie à apprendre le métier ont souvent un point de vue radicalement différent.

6. Est-il vrai que « tout est perdu » et que les réseaux de neurones vont supprimer des emplois ? Qui est le plus inquiet ?

Il est important de séparer uniquement les « réseaux de neurones » qui effectuent des tâches spécifiques des réseaux de neurones à usage général comme ChatGPT. Ces derniers savent très bien suivre des instructions et sont capables d’apprendre à partir d’exemples en contexte. Certes, la taille de leur « mémoire » est désormais limitée à 10 à 50 pages de texte, tout comme leurs capacités de réflexion et de planification .

Mais si le travail de quelqu'un se résume à suivre régulièrement des instructions et qu'il est facile d'apprendre en quelques jours en lisant des articles (ou si tout Internet regorge de ces informations) et que le coût de la main-d'œuvre est supérieur à la moyenne, alors un tel travail sera bientôt être automatisé.

Mais l’automatisation en elle-même ne signifie pas un remplacement complet des personnes. Seule une partie du travail de routine peut être optimisée.

La personne commencera à se voir confier des tâches plus intéressantes et créatives que la machine ne peut pas (encore) gérer.

Pour donner des exemples, j'inclurais dans le groupe des professions qui peuvent être modifiées ou remplacées, par exemple, les conseillers fiscaux qui aident à préparer une déclaration, à vérifier les erreurs typiques et à identifier les incohérences. Des changements sont possibles dans une spécialité telle que le gestionnaire de données d'essais cliniques - l'essence du travail consiste à remplir des rapports et à les vérifier avec le tableau des normes.

Mais un cuisinier ou un chauffeur de bus seront demandés beaucoup plus longtemps simplement parce que la connexion des réseaux de neurones et du monde physique réel est assez difficile, notamment du point de vue de la législation et de la réglementation - grâce aux bureaucrates qui ont retardé la crise de l'IA !

De grands changements sont attendus dans les secteurs liés aux documents imprimés et à l'information textuelle : journalisme, éducation . Avec une très forte probabilité, pour les premiers, les neurones rédigeront très bientôt des ébauches avec un ensemble de thèses, auxquelles les gens apporteront déjà des modifications ponctuelles.

Je suis très satisfait des changements dans le domaine de l'éducation. Certaines études montrent que la qualité de l'enseignement dépend directement de la « personnalité » de l'approche et du temps que l'enseignant consacre à un élève en particulier. L'exemple le plus simple : enseigner en groupe de 30 personnes à l'aide d'un manuel est bien pire qu'un tuteur individuel pour des besoins spécifiques (même en utilisant le même programme que dans le manuel). Avec le développement de l’IA, l’humanité aura la possibilité de fournir un assistant personnalisé à chaque étudiant. C'est tout simplement incroyable ! Le rôle de l'enseignant va évoluer, à mon avis, vers un rôle stratégique et de contrôle : déterminer le programme général et la séquence d'études, tester les connaissances, etc.

7. Est-il possible de télécharger sa conscience dans un ordinateur, de créer un double numérique et de vivre éternellement ?

Dans le sens où il est imaginé à partir de la science-fiction, non. Vous pouvez uniquement apprendre au modèle à imiter votre style de communication et à apprendre vos blagues. Peut-être que les modèles de niveau GPT-4 seront même capables d'en proposer de nouveaux, encadrés dans votre style et votre manière de présentation uniques, mais cela ne signifie clairement pas un transfert complet de conscience.

Encore une fois, nous, en tant qu’humanité, ne savons pas ce qu’est la conscience, où elle est stockée, en quoi elle diffère des autres, ce qui fait de moi moi, et de vous, vous. S'il s'avère soudainement que tout cela n'est qu'un ensemble de souvenirs et d'expériences, multipliés par des caractéristiques individuelles de perception, alors, très probablement, il sera possible de transférer d'une manière ou d'une autre des connaissances vers un réseau neuronal afin qu'ils puissent simuler la vie future sur la base de il.

8. Est-il dangereux de télécharger votre voix, votre apparence ou votre style de discours sur un réseau neuronal ? Il semble qu’une telle identité numérique puisse être volée.

Vous ne pouvez littéralement rien y charger. Vous pouvez les entraîner (ou les recycler) afin que les résultats ressemblent davantage à votre apparence, votre voix ou votre texte. Et un tel modèle formé peut vraiment être volé, c'est-à-dire que vous pouvez simplement copier le script et un ensemble de paramètres pour l'exécuter sur un autre ordinateur.

Vous pouvez même générer une vidéo vous demandant de transférer de l’argent sur le compte de quelqu’un d’autre, à laquelle votre proche croira : les meilleurs algorithmes de deepfakes et de clonage vocal ont déjà atteint ce niveau. Certes, cela nécessite des milliers de dollars et des dizaines d'heures d'enregistrement, mais quand même.

De manière générale, avec le développement de la technologie, la question de l’identification et de la confirmation de l’identité devient plus importante.

Et ils essaient de le résoudre d’une manière ou d’une autre. Par exemple, il existe une startup appelée WorldCoin (qui fabrique essentiellement des cryptomonnaies), dans laquelle le directeur d’OpenAI, Sam Altman, a investi. Le but de la startup est que chaque élément d'information sur une personne sera signé avec sa propre clé pour une identification ultérieure. La même chose s’appliquera aux médias, afin de savoir avec certitude s’il s’agit d’informations fiables ou fausses.

Mais malheureusement, tout cela est encore au stade du prototype. Et je ne considère pas que la mise en œuvre approfondie de systèmes dans tous les secteurs soit réalisable au cours de la prochaine décennie, simplement parce que c’est trop complexe et à grande échelle.

9. Les neurones pourraient-ils commencer à causer du tort et à conquérir le monde ?

Le danger ne réside pas dans l’évolution actuelle, mais dans ce qui suivra avec l’évolution future. Actuellement, aucune méthode n'a été inventée pour contrôler le fonctionnement des réseaux de neurones. Prenons, par exemple, une tâche très simple : s'assurer que le modèle ne jure pas. Plus jamais. Aucune méthode ne vous permettra de suivre une telle règle. Pour l’instant, vous pouvez trouver différentes manières de le « dissoudre ».

Imaginez maintenant que nous parlons de GPT-8, sous condition, dont les compétences seront comparables à celles des personnes les plus capables et les plus intelligentes. Un réseau de neurones peut programmer, utiliser Internet, connaît la psychologie et comprend la façon dont les gens pensent. Si vous lui laissez libre cours et ne lui fixez pas de tâche précise, que fera-t-elle ? Et si elle découvre qu'elle ne peut pas être contrôlée ?

La probabilité d’un mauvais résultat n’est pas si grande, selon les estimations. À propos, il n'existe pas d'évaluation généralement acceptée - même si tout le monde discute des détails, des conséquences néfastes, etc. Maintenant, ils appellent des chiffres approximatifs de 0,01 % à 10 %.

À mon avis, ce sont des risques énormes, à supposer que le scénario le plus négatif soit la destruction de l’humanité.

Il est intéressant de noter que ChatGPT et GPT-4 sont des produits créés par des équipes travaillant sur le problème de « l'alignement » des intentions des personnes et des neurones (les détails peuvent être trouvés ici ). C'est pourquoi les modèles écoutent si bien les instructions, essaient de ne pas être impolis et posent des questions de clarification, mais c'est encore très loin d'être idéal. Le problème du contrôle n’est même pas à moitié résolu. Et jusqu’à présent, nous ne savons pas si ce problème peut être résolu et, si oui, par quelles méthodes. C’est le sujet de recherche le plus brûlant aujourd’hui.

10. Un réseau de neurones peut-il tomber amoureux d’une personne ?

Avec les approches et architectures neuronales actuelles, non. Ils génèrent uniquement le texte qui est le plus susceptible d'être une continuation du texte donné en entrée. Si vous y jetez le premier chapitre d'une histoire d'amour, en le réécrivant en fonction de votre personnalité, et demandez au mannequin de répondre à votre lettre d'amour, elle s'en sortira. Mais pas parce que je suis tombé amoureux, mais parce que cela correspond le mieux au contexte et à la demande « écrivez-moi une lettre ! N'oubliez pas que les modèles apprennent à générer du texte qui suit les instructions.

De plus, les réseaux de neurones dans leur version de base n'ont pas de mémoire : entre deux lancements différents, ils oublient tout et reviennent aux « paramètres d'usine ». La mémoire peut être ajoutée artificiellement, comme sur le côté, de sorte que, par exemple, 10 pages des « souvenirs » les plus pertinents soient introduites dans le modèle. Mais il s’avère ensuite que nous introduisons simplement un ensemble d’événements dans le modèle initial et disons : « Comment vous comporteriez-vous dans de telles conditions ? » Le modèle n'a aucun sentiment.