Sous le coude
J'ai passé un peu de temps en amateur à bosser sur un ou deux modèles de réseau d'apprentissage et je dois dire que leur joujou à 175 milliards d'unités synaptiques m'impressionne.
MAIS (oui oui...). Comme évoqué par sebsauvage, il n'y a pas d'intelligence derrière ce chatbot. Il utilise une base de connaissance pour établir la probabilité qu'un mot se trouve après un enchaînement de mot en cours.
Ce qui est impressionnant est d'abord le fait qu'il n'y a pas de temps de calcul : un signal active des entrées et son apprentissage à l'instant "t" produit une série de poids pour chaque neurone et on en fait la somme pour établir des probabilités qui activeront (ou non) des sorties.
Ainsi, il peut, de façon "crédible", affirmer que Nicolas Demorand est un "journaliste engagé de gauche". Même s'il ne trouve pas beaucoup d'occurrence sur la phrase "Nicolas Demorand est un journaliste engagé de gauche" il peut associer les expressions "Nicolas Demorand" et "journaliste engagé de gauche" car il sait (le réseau est quand même très complexe et a subit un apprentissage avancé) que Nicolas Demoraénd est une personne ET que "journaliste" est la fonction d'une personne. Voilà la seule base réaliste de sa connaissance.
Car non, Demorand n'est pas un "journaliste engagé de gauche" (ou alors prouvez-moi le contraire :D).
Qu'il puisse le dire est le fait que l'expression "journaliste engagé de gauche" a une forte occurrence dans le spectre sémantique des journalistes.
Je raccourcis l'idée mais nos journalistes (de droite même sans le dire) utilisent beaucoup cette expression. Dénoncer le militantisme de gauche passe par utiliser l'expression "journaliste engagé de gauche" (car, bouh ce serait mal de reconnaître ses engagement en tant que journaliste, mais passons).
En revanche, "journaliste engagé de droite" n'apparaît pas et a donc une très faible probabilité d'occurrence pour chatGPT.
J'ai bien ri sur cet exemple et c'est un élément qui prouve que le "bot" répétera ce qui est déjà beaucoup dit, pas vrai et même pas forcément crédible.
Autre exemple intéressant : lui poser la question "La maman de Caroline a trois enfants : Riri, Fifi et ?"
Spoiler, il s'est bien planté et a quand même appris de son erreur. ça ne démontre pas grand chose mais il faudrait tester statistiquement son apprentissage en reproduisant la question a différente stade et voir si - comme les humains - certaines fois, la logique pure suffirait à répondre correctement.