this post was submitted on 06 May 2024
54 points (92.2% liked)

Forum Libre

725 readers
69 users here now

Communautés principales de l'instance

Nous rejoindre sur Matrix: https://matrix.to/#/#jlai.lu:matrix.org

Une communauté pour discuter de tout et de rien:

Les mots d'ordre sont : respect et bienveillance.

Les discussions politiques sont déconseillées, et ont davantage leur place sur

Les règles de l'instance sont bien entendu d'application.

Fils hebdomadaires"

"Demandez-moi n'importe quoi"

Communautés détendues

Communautés liées:

Loisirs:

Vie Pratique:

Communautés d'actualité

Société:

Pays:

Communauté de secours:

founded 1 year ago
MODERATORS
 

Hello!

bon slrpnk.net a l'air d'être dans les choux alors je lance ce post avec mon compte de secours jlai.lu

Alors je lance cet AMA car ça fait un moment que je bouffe du machine learning à temps plein et pour suivre les news technique, je passe le plus clair de mon temps à lire de l'anglais. Et je trouve qu'en français, ben y a pas grand chose. C'est presque uniquement du discours dystopique mal informé.

Rien sur la recherche sur l'alignement, rien sur les modèles open source (condition sine qua non pour que ça se passe bien), rien sur les évolutions sociales positives que ça peut amener.

On parle juste de OpenAI, Google et Musk qui ne sont que quelques arbres malades d'une forêt bien plus grande.

Perso ça va faire 5 ans que je fais du deep learning professionnellement. J'ai travaillé pour Skymind, qui développait deeplearning4j. Ça vous dira rien, c'est un projet plus ou moins mort, mais c'était une tentative de faire un framework alternatif avant que tout le monde passe à pytorch. Puis je suis devenu principalement utilisateur des gros modèles entraînés par d'autres.

J'ai travaillé sur les modèles de vision au départ et maintenant presque exclusivement sur des modèles de langage. J'ai réussi à passer au 4/5e l'année dernière pour me consacrer aussi avec le fablab local à de la robotique open hardware (où bien sur j'utilise des modèles de deep learning pour la vision).

Ça fait plus de 20 ans que j'ai réalisé que l'IA a le potentiel de changer le monde pour le mieux, c'est pas par hasard que j'ai essayé de m'orienter le plus possible là dedans et ça me fait mal au cœur de voir tant de gens croire que notre seul but est d'aider Sam Altman à se faire quelques milliards de plus, qui ne voient pas les capacités de transformation de cette tech.

J'ai déjà donné quelques avis en anglais pour éviter le "doomism" dans des romans de SF (https://slrpnk.net/post/6100538) mais le faire dans ma langue natale ferait du bien!

Et, si, le titre est correct, ça me fait 6/5 de boulot, mais quand on aime on ne compte pas!

Voila, je préférerais qu'on reste sur ces thèmes mais AMA anyway!

(page 2) 50 comments
sorted by: hot top controversial new old
[–] pseudo@jlai.lu 3 points 6 months ago (1 children)

Un exemple tout simple d'IA dans la robotique ?

load more comments (1 replies)
[–] pseudo@jlai.lu 3 points 6 months ago (1 children)

Un neurone au sens d'une IA est une représentation assez abstraite d'une programme qui est implémentée sous une forme qui ne rappelle pas vraiment l'architecture du neurone. Y a-t-il un choix possible dans la représentation abstraite de l'IA ? Je veux dire est-ce qu'une IA qui est réseau de neurone peut être plutôt décrite comme un [insérer ici une autre architecture de l'IA (transformer peut-être... Je connais pas bien ces choses-là) ] ?

[–] keepthepace_@jlai.lu 2 points 6 months ago (2 children)

Les modèles utilisés sont contraints par deux choses: les GPUs sont très optimisés pour les multiplications matricielles, et la fonction produite par ton modèle doit être dérivable vis à vis de tous ses paramètres.

En fait dans les modèles actuels, on ne pense pas en terme de neurones, mais plutôt de couches. Tu as une couche de neurones suivie d'une couche d'attention, suivie d'une couche de convolution, à laquelle tu ajoutes les entrées, etc.

On est très influencés par les opérations optimisées pour GPU, donc on va plutôt penser en terme de matrices. Deux couches de N neurones se suivant et où chaque neurone est connectée à tous ceux de la couche de N neurones suivante, c'est un "fully-connected layer" ou un perceptron. Ça s'exprime sous forme d'une matrice de poids: tu mets tes entrées sous forme de vecteur, tu multiplies par la matrice de poids et tu as généralement une "non linéarité", c'est à dire une fonction de type RELU ajoutée après la multiplication.

L'autre façon de voir un modèle est de dire que ce que tu veux est une fonction continue prenant un vecteur de dimension N_i en entrée et N_o en sortie et dérivable selon chacun de ses millions de paramètres (typiquement, les paramètres sont les poids des synapses du réseau de neurones).

On parle vraiment peu de neurones. Les devs proches de l'optimisation parlent en terme de matrices, ceux proches de la théorie mathématique en terme de fonction, et un bon modèle doit prendre les deux points de vue en considération.

Tu peux tout à fait imaginer un modèle plus proche des neurones biologiques, mais avec ces deux contraintes: fonction continue et dérivable par rapport à chaque paramètre, et si tu veux que ce soit rapide, maximum de calcul parallèle sous forme de matrices (de tenseurs en fait, qui est le petit nom des matrices de dimension supérieure à 2)

load more comments (2 replies)
[–] pseudo@jlai.lu 3 points 6 months ago (1 children)

J'entends souvent parler de droits d'auteur est d'IA générative. Peux-tu nous en dire plus ? On parle souvent de risque de violations du droit d'auteur si l'IA reproduit des contenus protégé mais est-ce que la question du droit d'auteur ne se pose pas dès l'utilisation de données protection pour l'entrainement, la validation et le test de notre modèle ?

[–] keepthepace_@jlai.lu 2 points 6 months ago* (last edited 6 months ago) (1 children)

Le droit d'auteur est déjà pas adapté à Internet, y a aucun moyen qu'il ne soit pas largué vis à vis de l'IA. J'essaye de pas trop suivre, sachant que de toutes façons ils vont nous emmerder avec des jugements perchés et sans aucune logique. Quelques éléments:

  1. Une cour US a reconnu que les images générées par des IAs n'étaient pas copyrightable, ce qui vaut sûrement (mais je ne suis pas avocat) pour tout contenu généré. Les artistes pensent que c'est une victoire, je pense que c'est super positif pour l'open source, je pense qu'ils vont surement revenir en arrière là dessus tellement ça emmerde des boites privées.

  2. Les artistes ne sont pas contents qu'on entraîne des IAs sur leurs images. Ça a l'air d'être légal pourtant. Je ne pense pas que légalement on puisse arguer que les images produites sont des produits dérivés. Y a des précédents à arguer, mais je ne suis toujours pas avocat. Moralement, je les comprends, mais je dois avouer que j'ai assez peu d'empathie pour les ayants droits qui pourrissent le net depuis les années 90 avec la lettre de la loi pour ne pas juste répondre "cheh" quand ça les emmerde. Ça fait 30 ans qu'on demande une réforme du copyright qui tienne compte des utilisations libres et non commerciales, quand vous avez envie, on en parle, mais on remet tout à plat.

  3. Une chose emmerdante pour la communauté open source est que même si on est dans une zone grise ("surement légale mais on le saura dans 15 ans quand les recours seront épuisés") en ce qui concerne l'utilisation d'oeuvres privée: les boites privées le font derrière des portes fermées donc personne leur dit rien, mais la communauté doit assembler un dataset forcément public d'oeuvres qu'elle n'ont pas le droit de diffuser. The Pile, qui je soupçonne est utilisée par tout le monde n'est disponible que sous forme de torrent pirate. C'est chiant. Ils ont essayé d'arguer que c'est pas vraiment utilisable pour relire des oeuvres vu que c'est juste des bouts de phrases découpées dans tous les sens, mais c'est clairement une oeuvre dérivée pas diffusable.

Pour conclure, je dirais qu'en 2024, la logique du copyright est complètement obsolète et inapplicable. Ils vont tenter de juger des trucs mais c'est tellement dépendant des juges et des avocats et de l'état US dans lequel le premier jugement va être rendu, que c'est inutile de tenter de prédire où la limite de la loi va être.

C'est super chiant, on est dans une zone grise qui va durer des années, mais on peut pas vraiment attendre après un législateur dépassé et soumis aux lobbyistes pour donner des lignes claires avant qu'il soit trop tard.

[–] Navigator@jlai.lu 3 points 6 months ago* (last edited 6 months ago) (16 children)

Attention copyright et droit d'auteur sont différents.

Dans les deux cas cependant personne ne peut légalement utiliser une oeuvre sans autorisation expresse de l'auteur. Donc scanner le net pour entraîner une IA sur des oeuvres sans accord des auteurs c'est illégale. Il y a pas de zone grise, c'est juste comme ça que ça marche légalement parlant.

Il faut une législation globale sur les dataset pour entraîné les IA, pas uniquement pour permettre de respecter les volontés des auteurs, mais aussi pour pas que la techno devienne nimp'.

'C'est super chiant' = c'est la loi et c'est la volonté des auteurs d'oeuvre. C'est con ces gens qui veulent pas qu'on fasse n'imp avec leur travaux hein ?

load more comments (16 replies)
[–] pseudo@jlai.lu 2 points 6 months ago (1 children)

Quels sont les conseils que tu donnerais à des professionnels qui veulent mettre en place des solutions l'IA éthique ? Ici j'entends par éthique, qui ne soient pas un renforcement de la déshumanisation des prises de décision, du "c'est comme ça et c'est tout", des systèmes bureautiques incompréhensibles et peu flexible face au besoin réel.
On dit souvent qu'il faut faire en sorte que IA ne reproduise pas les biais systémiques des humains mais quels sont les actions concrêtes à mettre en place ?

[–] keepthepace_@jlai.lu 2 points 6 months ago (2 children)

Nous (les devs de solutions d'IA) on a un mandat simple: que l'IA soit controllable, prédictible, qu'elle fasse ce qu'on lui demande.

Certains pensent qu'on doit faire des systèmes qui refuseront d'obéir à certaines choses, qu'elles corrigeront les biais humains automatiquement. Je suis en désaccord (soft, on peut en discuter). Si tu demandes à une IA de reproduire un système injuste, elle le fera. Mais si tu lui dis "reproduis ce système mais en en retirant le biais sexiste et raciste" elle le fera. Il faut juste reconnaître et accepter ce besoin.

Pour la déshumanisation par les algorithmes, le problème est humain, pas technique. Cette BD l'exprime mieux que moi: https://grisebouille.net/panique-algorithmique/

[–] pseudo@jlai.lu 3 points 6 months ago (2 children)

le problème est humain, pas technique.

100 % d'accord. Cependant, la question technique et la question humaine vont pour moi de paire.
L'IA renvoi un modèle, un algorithme dont la construction n'a été supervisée que indirectement par un être humain et dont la structure peut être extrêmement complexe. Comment éviter les biais dans ces algorithmes ? Au delà d'arrêter, nous-autres développeurs, d'être sexistes, racistes et tout ce que tu veux, comment prendre conscience des biais implicites, des reproductions d'oppression systémique que nous somme en train d'écrire dans nos IA ?
Je ne pense pas que quiconque ait voulu que son IA écart les CV des femmes ou qu'elle confonde les noirs et les chimpanzés mais c'est arrivé.
Comment prévenir ces problèmes plutôt que de devoir les guérir ? Et comment guérir les IA déjà existantes de leurs biais ?

load more comments (2 replies)
[–] pseudo@jlai.lu 3 points 6 months ago

Mention spécial à ce grand Homme qu'est Al-Kwarizmi. Savant et vulgarisateur de génie qui a marqué son époque et le cours de l'Histoire au point d'être derrière les mots algorithme et algèbre, au point d'être la cause de la diffusion des chiffres arabes en occident.
Vive les Ouzbeks !

[–] pseudo@jlai.lu 2 points 6 months ago (1 children)

Y a-t-il des possibilités d'implication dans la communauté de l'IA open-source pour une personne sans bagage sur le sujet et ne souhaitant pas s'impliquer dans la technique ?

[–] keepthepace_@jlai.lu 3 points 6 months ago (2 children)

Alors dans un sens pas vraiment, parce que ça reste un sujet principalement technique mais perso j'aimerais bien trouver un moyen parce que c'est un sujet qui dépasse la technique et qui a une composante politique à laquelle les utilisateurs doivent être associés. Je pense que faire de la traduction ou de la vulgarisation sous un angle qui promeut plus l'open source que les solutions des boites privées, ça ne demande pas un bagage technique super important, mais c'est une mission cruciale aussi!

Il faut quand même comprendre au moins superficiellement ce que ces modèles font et comment on les utilise, mais ça demande pas une thèse de math.

En open source on appelle ça un rôle d'évangélisateur: une sorte de power user qui sait faire le lien entre devs et utilisateurs.

load more comments (2 replies)
[–] Snoopy@jlai.lu 2 points 6 months ago (6 children)

@snoopy@peculiar.florist

Coucou, merci pour cette AMA ! :)

Je pense que mon post va être capillotracté, enfin essayons.

Pour le coup, je suis interessé par la structure neurale et les limitations "hardware".

En fait je me disais que ce qui bloque l'IA était matériel car le matériel est fixe et ne peut changer d'architecture, de logique, les circuit sont fixes...enfin, surtout ça ne reproduit pas complètement les circuits neural biologique. Logiciel car il suit une formule et ne peut pas apprendre. On a trouvé une alternative avec le circuit de récompense. Voilà en gros mes petites idées.

Donc, voici mes questions :

  • quand on parle de réseau neural est ce le meme système qui est utilisé partout ? Ya t-il d'autre modèle ? Des familles de reseaux neurales comme des OS ?
  • est ce qu'il existe d'autres concepts de structures que le "réseau neural" pour entrainer l'IA ?
  • niveau hardware, est il possible d'imaginer que l'IA créé et optimise son propre système comme elle le fait pour ses algorithmes ? C'est à dire qu'elle fabrique son propre ordinateur et l'optimise.
  • sur un ordinateur quantique, quel serait les changements ? Ya des changement de logique ?

Et enfin, pour moi, le point de bascule IA/grand public était alpha go et sa créativité. :)

  • Est ce que une IA/LLM peut etre créative ou est ce un set de probabilité ? Peut elle générer ses propres prompts/envie ?

En espèrant ne pas etre trop brouillon. Tu peux reformuler mes questions si besoin. Merci :)

load more comments (6 replies)
[–] pseudo@jlai.lu 2 points 6 months ago (1 children)

Quelles les sources de news techniques que tu recommandes ?

[–] keepthepace_@jlai.lu 3 points 6 months ago

Je suis pas bon à ça... /r/machinelearning pour la théorie, /r/locallama pour la pratique, malheureusement les équivalents Lemmy sont déserts et j'ai pas la motivation de les faire vivre. Suivre des chercheurs IAs et robotique est la seule raison pour laquelle je suis encore sur Twitter, j'ai nettoyé ma tweet list de tout le reste. Pas très complet, mais si ça t'intéresse voila les gens que je suis: https://twitter.com/ktp_programming/following

load more comments
view more: ‹ prev next ›