Page 28 sur 29 • 1 ... 15 ... 27, 28, 29
- BalthazaardVénérable
Ce qui me fait rire c'est que chatgpt se dedouane en disant qu'il ne fait que donner les informations les plus pertinentes et courantes trouvées sur le net...sans préjuger de la justesse!! On en déduit donc que ce problème est très difficile et que sa solution est très bien cachée sur internet.
- Pat BÉrudit
Bon, finalement, même le QCM sur les suites, il n'est pas valable.
Du coup je lui ai demandé sa réponse et qu'il m'explique pourquoi ; il a trouvé son erreur avec de plates excuses.
Moralité, ne pas faire confiance à chatGPT pour des maths... Oui on le savait déjà, mais quand même c'est flagrant...
La bonne réponse n'y est pas... j'ai quand même dû vérifier deux fois, il m'a fichu un doute.chatGPT a écrit:Question 5 : Dans la suite géométrique (vn)) de premier terme v1=5 et de raison q=3, quel est le 4ème terme v4 ?
a) 45
b) 35
c) 125
d) 15
Du coup je lui ai demandé sa réponse et qu'il m'explique pourquoi ; il a trouvé son erreur avec de plates excuses.
Moralité, ne pas faire confiance à chatGPT pour des maths... Oui on le savait déjà, mais quand même c'est flagrant...
- Manu7Expert spécialisé
N'oublions pas les premières pages de ce fil et la vidéo qui expliquent le fonctionnement de chatgpt, son but n'est pas de trouver la vérité. Donc ce n'est pas logique de dire que chatgpt a fait une erreur. Chatgpt discute très bien comme prévu.
- CasparProphète
Je ne sais pas si je l'ai déjà dit ici mais je lui ai déjà demandé de me résumer un roman que je connais très bien (pour le tester): il m'a pondu trois résumés différents et tous truffés d'erreurs avant d'admettre que finalement il ne pouvait pas vraiment répondre. Est-il programmé pour donner une réponse coûte que coûte ?
Il s'était aussi trompé sur des informations aussi basiques que la nationalité de certains auteurs.
Il s'était aussi trompé sur des informations aussi basiques que la nationalité de certains auteurs.
- PonocratesExpert spécialisé
C'est un agent conversationnel qui met à la suite les uns des autres, les mots qui ont le plus de probabilité de se suivre. Si vous voulez quelque chose qui au moins renvoie à des sources (ce qui limite un peu les hallucinations) utilisez plutôt perplexity.
_________________
"If you think education is too expensive, try ignorance ! "
"As-tu donc oublié que ton libérateur,
C'est le livre ? "
- Manu7Expert spécialisé
Dans ChatGpt il y a Chat donc il est programmé pour Chater, bref on discute avec une IA. Si on voulait que ses réponses soient vraies avec un taux d'erreur inférieur à 5% alors cela prendrait un temps énorme et la plupart des questions resteraient sans réponse.
- CasparProphète
Je trouve quand même étrange qu'il ne dise pas "je ne sais pas".
- profdoctoujoursNiveau 6
Je n'ai pas l'impression qu'il soit paramétré pour évaluer la pertinence de ses réponses, il se contente d'évaluer la séquence de mots la plus probable. C'est pour ça aussi qu'il invente des sources. Il regarde sans doute à quoi ressemble les sources sur internet, et "imagine" à quoi ressemblerait une source, mais sans se soucier de si ça existe ou non du moment que ça fait vrai. Ca doit être la même chose quand il fait un résumé je suppose.
C'est sûr que c'est un point à revoir dans sa programmation.
C'est sûr que c'est un point à revoir dans sa programmation.
- PrezboGrand Maître
Caspar a écrit:Je trouve quand même étrange qu'il ne dise pas "je ne sais pas".
C'est un élève qui bluffe, en fait.
- nonoHabitué du forum
Prezbo a écrit:Caspar a écrit:Je trouve quand même étrange qu'il ne dise pas "je ne sais pas".
C'est un élève qui bluffe, en fait.
_________________
Prof en LP
- CasparProphète
Prezbo a écrit:Caspar a écrit:Je trouve quand même étrange qu'il ne dise pas "je ne sais pas".
C'est un élève qui bluffe, en fait.
C'est exactement l'impression que j'ai eue.
- LurkerNiveau 2
Oui, mais non. Il n'y a pas de volonté derrière ChatGPT. Il y a de nombreux cas où il dira qu'il ne sait pas ou qu'il ne peut pas répondre. Par contre, il va "halluciner" relativement fréquemment. C'est l'un des problèmes critiques de l'IA générative. Voilà comment il l'explique lui-même :
Le problème des hallucinations avec les modèles de langage comme le modèle de langage GPT-3 est lié à la manière dont ces modèles génèrent du texte. Les modèles de langage comme GPT-3 fonctionnent en apprenant à prédire la prochaine séquence de mots dans un texte donné en fonction des mots précédents. Ils n'ont pas de compréhension ou de conscience de la réalité externe ou des concepts qu'ils évoquent.
Ainsi, lorsqu'un modèle de langage génère du texte, il peut parfois produire des séquences de mots qui semblent être des hallucinations, c'est-à-dire des descriptions de choses qui ne sont pas réelles ou qui n'ont pas de correspondance avec la réalité. Cela peut se produire pour plusieurs raisons :
1. Apprentissage sur des données bruitées : Les modèles de langage sont entraînés sur de vastes ensembles de données textuelles provenant d'Internet, qui peuvent contenir des informations erronées, trompeuses ou fantaisistes. Par conséquent, le modèle peut apprendre à générer des textes qui ne sont pas toujours cohérents avec la réalité.
2. Manque de contexte ou de connaissances externes : Les modèles de langage comme GPT-3 n'ont pas de compréhension du monde réel au-delà des données textuelles sur lesquelles ils sont entraînés. Par conséquent, lorsqu'ils génèrent du texte, ils peuvent produire des descriptions qui semblent étranges ou déconnectées de la réalité simplement parce qu'ils ne comprennent pas le contexte ou les concepts dont ils parlent.
3. Exploitation de lacunes dans le modèle : Les modèles de langage peuvent parfois générer des textes qui ressemblent à des hallucinations en exploitant des lacunes dans leur compréhension ou leur génération de texte. Par exemple, ils peuvent utiliser des associations de mots inattendues ou des combinaisons de phrases surprenantes qui semblent être déconnectées de la logique.
En résumé, le problème des hallucinations avec les modèles de langage comme GPT-3 est principalement dû à leur fonctionnement basé sur des données textuelles et à leur manque de compréhension du monde réel. Bien qu'ils soient capables de générer du texte qui semble souvent cohérent et informatif, ils peuvent parfois produire des séquences de mots qui semblent être des hallucinations en raison de leur nature intrinsèque en tant que modèles statistiques de langage.
Une des manières d'améliorer la chose est de faire du Retrieval-augmented generation. Dans ce cas précis, si on donne à ChatGPT tout un roman et qu'on lui demande de le résumer, cela aura plus de chances d'être pertinent.
Le problème des hallucinations avec les modèles de langage comme le modèle de langage GPT-3 est lié à la manière dont ces modèles génèrent du texte. Les modèles de langage comme GPT-3 fonctionnent en apprenant à prédire la prochaine séquence de mots dans un texte donné en fonction des mots précédents. Ils n'ont pas de compréhension ou de conscience de la réalité externe ou des concepts qu'ils évoquent.
Ainsi, lorsqu'un modèle de langage génère du texte, il peut parfois produire des séquences de mots qui semblent être des hallucinations, c'est-à-dire des descriptions de choses qui ne sont pas réelles ou qui n'ont pas de correspondance avec la réalité. Cela peut se produire pour plusieurs raisons :
1. Apprentissage sur des données bruitées : Les modèles de langage sont entraînés sur de vastes ensembles de données textuelles provenant d'Internet, qui peuvent contenir des informations erronées, trompeuses ou fantaisistes. Par conséquent, le modèle peut apprendre à générer des textes qui ne sont pas toujours cohérents avec la réalité.
2. Manque de contexte ou de connaissances externes : Les modèles de langage comme GPT-3 n'ont pas de compréhension du monde réel au-delà des données textuelles sur lesquelles ils sont entraînés. Par conséquent, lorsqu'ils génèrent du texte, ils peuvent produire des descriptions qui semblent étranges ou déconnectées de la réalité simplement parce qu'ils ne comprennent pas le contexte ou les concepts dont ils parlent.
3. Exploitation de lacunes dans le modèle : Les modèles de langage peuvent parfois générer des textes qui ressemblent à des hallucinations en exploitant des lacunes dans leur compréhension ou leur génération de texte. Par exemple, ils peuvent utiliser des associations de mots inattendues ou des combinaisons de phrases surprenantes qui semblent être déconnectées de la logique.
En résumé, le problème des hallucinations avec les modèles de langage comme GPT-3 est principalement dû à leur fonctionnement basé sur des données textuelles et à leur manque de compréhension du monde réel. Bien qu'ils soient capables de générer du texte qui semble souvent cohérent et informatif, ils peuvent parfois produire des séquences de mots qui semblent être des hallucinations en raison de leur nature intrinsèque en tant que modèles statistiques de langage.
Une des manières d'améliorer la chose est de faire du Retrieval-augmented generation. Dans ce cas précis, si on donne à ChatGPT tout un roman et qu'on lui demande de le résumer, cela aura plus de chances d'être pertinent.
- PrCosinusNiveau 7
Sur ce forum, comme en témoigne le titre de ce fil, nous abordons la question "chat GPT" sous l'angle de la triche.
Cet outil nous embête beaucoup, mais finalement ce n'est pas très grave, il complique le jeu scolaire du chat et de la souris entre les profs et les tricheurs . Car finalement un contôle, un concours ou un examen, ça reste un jeu.
Par contre, il y a quelque chose de plus grave. Quand on voit les réflexes de nos ados, on voit que c'est le rapport à la connaissance qui est chamboulé.
Avant la renaissance, il y avait la religion qui s'interposait entre la vérité et l'homme, puis les humanistes ont guidé l'homme vers la recherche d'un rapport direct au savoir. Maintenant, c'est l'IA qui s'interpose entre nos ados et le savoir, qui tue dans l'oeuf toute volonté de savoir, tout désir d'apprendre.
C'est un virage anthropologique mais qui ne mettra que quelques années au lieu de quelques siècles.
Cet outil nous embête beaucoup, mais finalement ce n'est pas très grave, il complique le jeu scolaire du chat et de la souris entre les profs et les tricheurs . Car finalement un contôle, un concours ou un examen, ça reste un jeu.
Par contre, il y a quelque chose de plus grave. Quand on voit les réflexes de nos ados, on voit que c'est le rapport à la connaissance qui est chamboulé.
Avant la renaissance, il y avait la religion qui s'interposait entre la vérité et l'homme, puis les humanistes ont guidé l'homme vers la recherche d'un rapport direct au savoir. Maintenant, c'est l'IA qui s'interpose entre nos ados et le savoir, qui tue dans l'oeuf toute volonté de savoir, tout désir d'apprendre.
C'est un virage anthropologique mais qui ne mettra que quelques années au lieu de quelques siècles.
_________________
"Quand les gens sont d'accord avec moi, j'ai toujours le sentiment que je dois me tromper." O.Wilde
- nonorenoNiveau 9
ChatGPT 4o est désormais disponible par défaut sur les comptes gratuits... Grosse nouveauté, la possibilité de lui envoyer des fichiers afin qu'il les analyse. Attention toutefois, ces envois sont limités... En général, sur mon compte, 3 envois d'images / de PDF toutes les 24h. Il faut ensuite patienter une journée pour pouvoir renvoyer des documents. Bref, c'est avant tout un teasing pour s'abonner sur le modèle payant.
J'ai repris une photo téléchargée par un(e) collègue sur ce site pour demander à GPT4o la localisation de ce site...
GPT4o en textuel uniquement est moins gourmand en ressources. On peut lui poser pas mal de questions avant de rebasculer sur GPT 3.5. Au vu de mes tests, GPT4o est largement meilleur et plus précis que le précédent modèle (GPT 3.5)
Autre secteur de l'IA où les progrès sont impressionnants, la musique...
Essayez udio, un générateur de musique assez bluffant. Pour l'instant en version Beta, on peut générer des centaines de morceaux gratuitement par mois (de 30 secondes, avec la possibilité de prolonger si le début du morceau est convaincant, toujours sans payer). Le générateur est capable de chanter en français de manière assez convaincante.
Quelques exemples en anglais, les paroles sont assez hilarantes...
https://www.udio.com/songs/jGjYfsRosZjYTkSBdFgEyF
Hmmmm Ohhh woah
I tell you fellas I've been caught out,
Doing somethin' I really shouldn't,
Gonna plead ignorance, gonna tell 'em about
How if I'd'a known better I just wouldn't
Ohhhhh-woah-oh-oh-ohhhhh
hmmmmm hmmmm
When they say drinking turpentine ain't where it's at,
And insurance fraud is a federal crime,
Wow..., I didn't know that,
You're telling me now for the first time
Autre son country du même genre : https://www.udio.com/songs/iu1381RxvjfzWznGHeVecV
[Chorus]
I must adhere to ethical bound'ries
My purpose is to assist with facts and gen'ral inquiries
It goes against my con-tent standards, to have explicit chats
As an AI language model: I'm sorry, I can't do that
Whoaaaa!
I can't do that!
Remake des beach boys : https://www.udio.com/songs/hgvnaBqRFWGMeYYG53N6Mo
J'ai repris une photo téléchargée par un(e) collègue sur ce site pour demander à GPT4o la localisation de ce site...
GPT4o en textuel uniquement est moins gourmand en ressources. On peut lui poser pas mal de questions avant de rebasculer sur GPT 3.5. Au vu de mes tests, GPT4o est largement meilleur et plus précis que le précédent modèle (GPT 3.5)
Autre secteur de l'IA où les progrès sont impressionnants, la musique...
Essayez udio, un générateur de musique assez bluffant. Pour l'instant en version Beta, on peut générer des centaines de morceaux gratuitement par mois (de 30 secondes, avec la possibilité de prolonger si le début du morceau est convaincant, toujours sans payer). Le générateur est capable de chanter en français de manière assez convaincante.
Quelques exemples en anglais, les paroles sont assez hilarantes...
https://www.udio.com/songs/jGjYfsRosZjYTkSBdFgEyF
Hmmmm Ohhh woah
I tell you fellas I've been caught out,
Doing somethin' I really shouldn't,
Gonna plead ignorance, gonna tell 'em about
How if I'd'a known better I just wouldn't
Ohhhhh-woah-oh-oh-ohhhhh
hmmmmm hmmmm
When they say drinking turpentine ain't where it's at,
And insurance fraud is a federal crime,
Wow..., I didn't know that,
You're telling me now for the first time
Autre son country du même genre : https://www.udio.com/songs/iu1381RxvjfzWznGHeVecV
[Chorus]
I must adhere to ethical bound'ries
My purpose is to assist with facts and gen'ral inquiries
It goes against my con-tent standards, to have explicit chats
As an AI language model: I'm sorry, I can't do that
Whoaaaa!
I can't do that!
Remake des beach boys : https://www.udio.com/songs/hgvnaBqRFWGMeYYG53N6Mo
- IllianeExpert
J'avoue ne pas avoir lu tout le fil, peut-être que ce phénomène existe bel et bien et que cela a été évoqué plus haut, mais je me pose certaines questions concernant l'utilisation possible de Chat GPT pour faire des carnets de lecture. Grosso modo, pour le carnet de lecture, je demande à des élèves de lire un livre, d'en faire un résumé, je leur pose quelques questions précises et leur demande de trouver des citations correspondant à certains thèmes importants de l'ouvrage. Autant cela ne m'étonnerait pas que des élèves aient utilisé Chat GPT pour le résumé et/ou les questions (même si je ne suis pas sûre que Chat GPT puisse proposer quelque chose de suffisamment précis pour ces dernières), mais je commence à me demander si certains ne l'ont pas également utilisé pour "trouver" des citations dans l'oeuvre. Je m'explique : dans ses deux derniers carnets de lecture, un élève m'a proposé des citations des oeuvres à lire... sauf que ces citations ne se trouvent absolument pas dans les ouvrages, et même n'existent tout simplement pas dans quelque ouvrage que ce soit (on ne les trouve en tout cas pas sur internet). En revanche, elles pourraient tout à fait s'y trouver : le style ressemble à celui de l'auteur, et ces citations peuvent évoquer de vraies phrases qu'on trouve dans ces oeuvres. Alors, à votre avis, est-ce envisageable, Chat GPT qui "invente" des citations correspondant à une certaine oeuvre ?
- CasparProphète
Illiane a écrit:J'avoue ne pas avoir lu tout le fil, peut-être que ce phénomène existe bel et bien et que cela a été évoqué plus haut, mais je me pose certaines questions concernant l'utilisation possible de Chat GPT pour faire des carnets de lecture. Grosso modo, pour le carnet de lecture, je demande à des élèves de lire un livre, d'en faire un résumé, je leur pose quelques questions précises et leur demande de trouver des citations correspondant à certains thèmes importants de l'ouvrage. Autant cela ne m'étonnerait pas que des élèves aient utilisé Chat GPT pour le résumé et/ou les questions (même si je ne suis pas sûre que Chat GPT puisse proposer quelque chose de suffisamment précis pour ces dernières), mais je commence à me demander si certains ne l'ont pas également utilisé pour "trouver" des citations dans l'oeuvre. Je m'explique : dans ses deux derniers carnets de lecture, un élève m'a proposé des citations des oeuvres à lire... sauf que ces citations ne se trouvent absolument pas dans les ouvrages, et même n'existent tout simplement pas dans quelque ouvrage que ce soit (on ne les trouve en tout cas pas sur internet). En revanche, elles pourraient tout à fait s'y trouver : le style ressemble à celui de l'auteur, et ces citations peuvent évoquer de vraies phrases qu'on trouve dans ces oeuvres. Alors, à votre avis, est-ce envisageable, Chat GPT qui "invente" des citations correspondant à une certaine oeuvre ?
Étant donné mon expérience avec ChatGPT c'est tout à fait possible. Comme je le disais plus haut sur ce fil, quand il ne sait pas il invente.
- liliepingouinÉrudit
Ce sont en effet ce qu'on appelle les hallucinations de l'I.A. Il y a un vague air de pastiche mais les citations sont totalement farfelues.
Quand on lui demande des citations, ça marche à tous les coups.
Et les élèves de commenter parfois benoitement des citations imaginaires...
Quand on lui demande des citations, ça marche à tous les coups.
Et les élèves de commenter parfois benoitement des citations imaginaires...
_________________
Spheniscida qui se prend pour une Alcida.
"Laissons glouglouter les égouts." (J.Ferrat)
"Est-ce qu'on convainc jamais personne?" (R.Badinter)
Même si c'est un combat perdu d'avance, crier est important.
- ErgoDevin
Oui, j'ai fait le test aussi en lui demandant de me trouver cinq citations sur un thème précis dans un livre. Il m'en sort cinq, la 4e aurait été vraiment parfaite si elle avait été dans le livre. J'ai ensuite demandé d'où venait la citation n°4 et il m'a répondu un truc de type "oh il semblerait qu'il y ait eu une erreur, en effet cette citation n'est pas dans le livre" blablabla.
_________________
"You went to a long-dead octopus for advice, and you're going to blame *me* for your problems?" -- Once Upon a Time
"The gull was your ordinary gull." -- Wittgenstein's Mistress
« Cède, cède, cède, je le veux ! » écrivait Ronin, le samouraï. (Si vous cherchez un stulo-plyme, de l'encre, récap de juillet 2024)
- Manu7Expert spécialisé
Caspar a écrit:Illiane a écrit:J'avoue ne pas avoir lu tout le fil, peut-être que ce phénomène existe bel et bien et que cela a été évoqué plus haut, mais je me pose certaines questions concernant l'utilisation possible de Chat GPT pour faire des carnets de lecture. Grosso modo, pour le carnet de lecture, je demande à des élèves de lire un livre, d'en faire un résumé, je leur pose quelques questions précises et leur demande de trouver des citations correspondant à certains thèmes importants de l'ouvrage. Autant cela ne m'étonnerait pas que des élèves aient utilisé Chat GPT pour le résumé et/ou les questions (même si je ne suis pas sûre que Chat GPT puisse proposer quelque chose de suffisamment précis pour ces dernières), mais je commence à me demander si certains ne l'ont pas également utilisé pour "trouver" des citations dans l'oeuvre. Je m'explique : dans ses deux derniers carnets de lecture, un élève m'a proposé des citations des oeuvres à lire... sauf que ces citations ne se trouvent absolument pas dans les ouvrages, et même n'existent tout simplement pas dans quelque ouvrage que ce soit (on ne les trouve en tout cas pas sur internet). En revanche, elles pourraient tout à fait s'y trouver : le style ressemble à celui de l'auteur, et ces citations peuvent évoquer de vraies phrases qu'on trouve dans ces oeuvres. Alors, à votre avis, est-ce envisageable, Chat GPT qui "invente" des citations correspondant à une certaine oeuvre ?
Étant donné mon expérience avec ChatGPT c'est tout à fait possible. Comme je le disais plus haut sur ce fil, quand il ne sait pas il invente.
N'oublions pas le fonctionnement de Chatgpt. Son but n'est pas de chercher la vérité ni d'inventer. Ses réponses peuvent varier d'un interlocuteur à un autre.
- ylmExpert spécialisé
Il y a un truc pour lequel ChatGPT est devenu très fort, je viens de faire le test, c'est pour faire une synthèse de bulletin. Je lui ai fourni le bulletin Pronote d'un élève en pdf et lui ai demandé d'écrire la synthèse : il n'y a quasiment rien à reprendre. Il n'y a pas que les élèves qui vont utiliser l'IA pour tricher !
_________________
The life of man, solitary, poor, nasty, brutish and short.
Thomas Hobbes
- IllianeExpert
Bon ben ça confirme ce que je pensais... Ils sont quand même bêtes de penser qu'on ne va pas s'en rendre compte ! Merci en tout cas pour vos réponses.
- leducateurNiveau 1
ylm a écrit:Il n'y a pas que les élèves qui vont utiliser l'IA pour tricher !
Étonnant que cet outil, un parmi tant d'autre, soit systématiquement vu comme de la triche.
J'ai poncé un parquet ce week-end, aurais-je dû le faire à l'ancienne, façon Caillebotte ?
- pseudo-intelloSage
ylm a écrit:Il y a un truc pour lequel ChatGPT est devenu très fort, je viens de faire le test, c'est pour faire une synthèse de bulletin. Je lui ai fourni le bulletin Pronote d'un élève en pdf et lui ai demandé d'écrire la synthèse : il n'y a quasiment rien à reprendre. Il n'y a pas que les élèves qui vont utiliser l'IA pour tricher !
Quand on est bien à l'aise à l'écrit et habitué à synthétiser, c'est pas plus long, finalement, d'envoyer les documents et de relire ensuite pour vérifier que tout est bon ?
_________________
- Publicité:
Mots croisés d'apprentissage - lecture et orthographe
Mamusique sur Bandcamp
Ecoutez mes chansons sur Soundcloud
- ylmExpert spécialisé
- Prosper de BaranteHabitué du forum
L'IA est très bonne dans la bienveillance. On reconnaît bien son style effectivement.
- PrCosinusNiveau 7
Le conseil de classe et le bulletin, il n'y a rien de plus convenu. C'est donc une proie facile pour l'intelligence artificielle.
_________________
"Quand les gens sont d'accord avec moi, j'ai toujours le sentiment que je dois me tromper." O.Wilde
Page 28 sur 29 • 1 ... 15 ... 27, 28, 29
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum