France
La France et les Français
Communautés principales
Nous rejoindre sur Matrix: https://matrix.to/#/#jlai.lu:matrix.org
FAQ, guides et ressources :
Actualité internationale
Loisirs:
- !cineseries@jlai.lu
- !cyclisme@sh.itjust.works
- !jardin@lemmy.world
- !jeuxdesociete@lemmy.world
- !jeuxvideo@jlai.lu
- !livres@jlai.lu
- !motardie@jlai.lu
- !sport@jlai.lu
- !technologie@jlai.lu
- !tournesol@jlai.lu
Vie Pratique:
Société:
Villes/Régions
- !bretagne@jlai.lu
- !grenoble@jlai.lu
- !lille@jlai.lu
- !lyon@lemmy.world
- !marseille@jlai.lu
- !nantes@sh.itjust.works
- !orleans@lemmy.world
- !paris@jlai.lu
- !toulouse@jlai.lu
Pays:
Humour:
Fedivers:
Règles
-
Multi-lingual community: posts in other language than French are allowed. 🚀
-
Tous les francophones sont bienvenus. 🐌
-
Remember the human : pas d’insultes, pas d’agressivité, pas de harcèlement entre utilisateurs. 🤖
-
Xénophobie, racisme et autre forme de discrimination sont interdits.🌈
-
Pas de doublon. Pas de spam. Évitez les paywalls autant que possible.☔
-
Utilisez la fonction "Report" pour signaler le contenu contrevenant aux règles.🏴
-
Le contenu doit être en rapport avec la France ou la population française.🇨🇵
Communauté de secours:
view the rest of the comments
Oui, Le Cun a beaucoup sous-estimé les LLMs de type GPT dans le passé. Et il est en bonne compagnie là dessus hein, ils ont surpris tout le monde par leurs capacités émergentes. C'est pour ça que je trouve que la thèse de Le Cun bien que défendable ne devrait pas l'être avec un ton si péremptoire.
Même l'histoire des engrenages, bien prompté, GPT4 y arrive, mais c'est bien plus difficile pour lui que des tâches normalement plus ardues. Il met le doigt sur une faiblesse intéressante, que lui argue bloquante, qui ne l'est peut être pas, mais il est très raisonnable de penser que d'explorer cette faiblesse et de la compenser pourrait booster les compétences de ces modèles.
Et il est intéressant de comprendre également pourquoi le raisonnement de Le Cun est faux dans la vidéo présentée: il a peut-être raison sur le fait que probablement aucun texte ne dit explicitement qu'un objet posé sur une table suit la table, mais beaucoup de textes le supposent implicitement et GPT-4 arrive à apprendre ces informations implicites.
Oui, et on peut facilement imaginer qu'en entraînant des modèles similaires en plus sur des vidéos ils pourraient acquérir un bon modèle du monde physique.
Ouaip.
Le pari de LeCun est de faire une architecture où cet apprentissage serait explicite