this post was submitted on 29 Mar 2023
6 points (100.0% liked)

Etica Digitale (Feddit)

919 readers
1 users here now

Etica Digitale è un gruppo volontario indipendente attivismo con l’intento di riportare la persona e i diritti al centro del dibattito tecnologico.

Se fatto nel rispetto del regolamento, ogni contributo è benvenuto!

Regolamento:

  1. Rispetto e cordialità sempre
  2. Niente troll
  3. Niente pubblicità
  4. Evitare di andare fuori tema nelle discussioni
  5. Evitare discorsi con sfondi politici o propagandistici che non siano strettamente correlati agli argomenti trattati
  6. No attività illegali
  7. Non importunare le e gli utenti in privato.

Alcune informazioni utili:
🔹 Sito: eticadigitale.org
📧 Email: etica.digitale@mailfence.com
🦣 Mastodon
📣 Telegram (canale)
👥 Telegram (gruppo)

founded 2 years ago
MODERATORS
 

Disinformazione, impatto sul lavoro e sicurezza sono tutti rischi. Ma non nel modo in cui implica la lettera.

@eticadigitale

Il Future of Life Institute ha rilasciato una lettera aperta chiedendo una pausa di 6 mesi sulla formazione di modelli linguistici "più potenti di" GPT-4. Oltre 1.000 ricercatori, tecnologi e personaggi pubblici hanno già firmato la lettera. La lettera solleva l'allarme su molti rischi legati all'IA:

"Dovremmo lasciare che le macchine inondino i nostri canali informativi con propaganda e menzogna? Dovremmo automatizzare tutti i lavori, compresi quelli appaganti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci in numero, superarci in astuzia, diventare obsolete e sostituirci? Dovremmo rischiare la perdita del controllo della nostra civiltà?" (fonte)

Siamo d'accordo che la disinformazione, l'impatto sul lavoro e la sicurezza sono tre dei principali rischi dell'IA. Sfortunatamente, in ogni caso, la lettera presenta un rischio speculativo e futuristico, ignorando la versione del problema che sta già danneggiando le persone. Distrae dai problemi reali e rende più difficile affrontarli. La lettera ha una mentalità di contenimento analoga al rischio nucleare, ma non si adatta bene all'IA. Fa il gioco delle società che cerca di regolamentare.

➡ Il post originale continua qui

➡ Il thread su twitter di Arvind Narayanan, coautore del post insieme a Sayash Kapoor

you are viewing a single comment's thread
view the rest of the comments
[–] zakmckracken@livellosegreto.it 2 points 2 years ago (1 children)

@informapirata @eticadigitale Più che una "lettera aperta" è una mossa di marketing.

[–] informapirata@poliverso.org 1 points 2 years ago (1 children)

@zakmckracken La tua opinione è piuttosto verosimile! Trovo comunque che, poiché oggi si sottovalutano alcuni aspetti legati alla pericolosità sociale della AI, questo tipo di iniziative faccia comunque bene al dibattito

[–] zakmckracken@livellosegreto.it 2 points 2 years ago

@informapirata Se serve a iniziare un dibattito ma ritengo sia più un messaggio lanciato a regolatori e investitori visto che BigTech era a rischio crollo in borsa e sotto la lente della FTC. Ora invece, con la AI così "pericolosa" e strategica ridiventa intoccabile. Poi c'è anche questa opinione: https://www.wired.it/article/intelligenza-artificiale-lettera-elon-musk-errori/
Insomma: messaggio per chi e per ottenere cosa? Veramente per aprire un dibattito?