this post was submitted on 21 Nov 2024
3 points (100.0% liked)

Intéressant

218 readers
18 users here now


Communauté francophone dédiée aux curieux et curieuses :)

Règles de la communauté

Contenu intéressant :

Sciences, Histoire, Géographie, Santé publique, Aujourd'hui j'ai appris...

L’accent sera mis sur le contenu en français mais ce ne sera pas toujours possible car les publications scientifiques sont souvent en anglais.

Ressources

Fédiverse

Theme

Bricolage

Culture générale (à vérifier pour les catégories)

Espace

Esprit critique

Environnement

Finance

Geopolitique et histoire

Langue

Philosophie

Psychologie

Science et vulgarisation

Science sociale


A trier


Crédit

Banière : Photo de Bicansky

founded 7 months ago
MODERATORS
 

Imaginez que vous vous asseyez avec un modèle d'IA pour un entretien oral de deux heures. Une voix amicale vous guide tout au long d'une conversation qui porte sur votre enfance, vos souvenirs de formation, votre carrière et vos idées sur la politique d'immigration. Peu de temps après, une réplique virtuelle de vous est capable d'incarner vos valeurs et vos préférences avec une précision étonnante.

C'est désormais possible, selon un nouvel article d'une équipe comprenant des chercheurs de Stanford et de Google DeepMind, qui a été publié sur arXiv et n'a pas encore fait l'objet d'un examen par les pairs.

Dirigée par Joon Sung Park, doctorant en informatique à Stanford, l'équipe a recruté 1 000 personnes de différents âges, sexes, races, régions, niveaux d'éducation et idéologies politiques. Ces personnes ont été payées jusqu'à 100 dollars pour leur participation. À partir des entretiens menés avec ces personnes, l'équipe a créé des agents reproduisant ces individus. Pour déterminer dans quelle mesure les agents imitaient leurs homologues humains, les participants ont effectué une série de tests de personnalité, d'enquêtes sociales et de jeux de logique, deux fois chacun, à deux semaines d'intervalle ; puis les agents ont effectué les mêmes exercices. Les résultats ont été similaires à 85 %.

you are viewing a single comment's thread
view the rest of the comments
[–] Kuinox@lemmy.world 1 points 19 hours ago* (last edited 19 hours ago) (1 children)

Such simulation agents are slightly different from the agents that are dominating the work of leading AI companies today. Called tool-based agents, those are models built to do things for you, not converse with you.

Mais ca n'a rien a voir ?!? Les tool-based agents c'est autre chose.
C'est du bullshit journalistique, les buts des chercheurs n'as jamais été de "repliquer la personalité".
Je cite le papier:

We present a novel agent architecture that simulates the attitudes and behaviors of 1,052 real individuals
The generative agents replicate participants' responses on the General Social Survey 85% as accurately as participants replicate their own answers two weeks later, and perform comparably in predicting personality traits and outcomes in experimental replications.

85% c'est extrement mauvais, surtout pour une tache de mémorisation ici.
Le but des chercheurs c'est de faire un simulateur médiocre d'humain pour tester des mesures politiques et mesurer l'impact. On est a des années lumière de vouloir dupliquer une personalité

[–] leftascenter@jlai.lu 1 points 19 hours ago

On est a des années lumière de vouloir dupliquer une personalité

Y'a déjà un marché attaqué pour ça avec les morts.

Le but des chercheurs c'est de faire un simulateur médiocre d'humain

On est loin du médiocre mais c'est leur but oui

tester des mesures politiques et mesurer l'impact

https://arxiv.org/abs/2410.20746

Pas encore eu le temps de lire plus que le résumé, je m'y attelle ce soir.