this post was submitted on 29 Mar 2023
3 points (100.0% liked)

Etica Digitale (Feddit)

923 readers
5 users here now

Etica Digitale è un gruppo volontario indipendente attivismo con l’intento di riportare la persona e i diritti al centro del dibattito tecnologico.

Se fatto nel rispetto del regolamento, ogni contributo è benvenuto!

Regolamento:

  1. Rispetto e cordialità sempre
  2. Niente troll
  3. Niente pubblicità
  4. Evitare di andare fuori tema nelle discussioni
  5. Evitare discorsi con sfondi politici o propagandistici che non siano strettamente correlati agli argomenti trattati
  6. No attività illegali
  7. Non importunare le e gli utenti in privato.

Alcune informazioni utili:
🔹 Sito: eticadigitale.org
📧 Email: etica.digitale@mailfence.com
🦣 Mastodon
📣 Telegram (canale)
👥 Telegram (gruppo)

founded 2 years ago
MODERATORS
 

Per una moratoria internazionale sulle intelligenze artificiali gigantesche: Pause Giant AI Experiments: An Open Letter

@eticadigitale

Chiediamo a tutti i laboratori di intelligenza artificiale di sospendere immediatamente per almeno 6 mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4.

Grazie a @robertabarone per la segnalazione
cc @filosofia
https://futureoflife.org/open-letter/pause-giant-ai-experiments/

you are viewing a single comment's thread
view the rest of the comments
[–] filobus@mastodon.uno 3 points 2 years ago (11 children)

@informapirata @eticadigitale @robertabarone @filosofia non sono competente per giudicare, ma che possibilità ci sono che venga accolta? E da tutti, perché se ad es la Cina non accettasse credo sarebbe un problema, e nessuno vorrebbe lasciare un vantaggio competitivo. Non sarebbe meglio un controllo e verifica sulle applicazioni?

[–] robertabarone@poliversity.it 2 points 2 years ago (10 children)

@filobus @informapirata @eticadigitale @filosofia non credo serva a molto perché c'è la volontà cieca di fare funzionare questa cosa dell'IA costi quel che costi. Mi interessa però vedere se qualcuna delle aziende coinvolte risponderà, e come

[–] robertabarone@poliversity.it 1 points 2 years ago (1 children)

@filobus @informapirata @eticadigitale @filosofia è difficile controllare le applicazioni, per una serie di motivi. Ci stanno provando sia con le leggi che con i regolamenti interni aziendali, ma i sistemi di apprendimento automatico sono molto molto molto difficili da regolare, all'atto pratico.

[–] filobus@mastodon.uno 1 points 2 years ago (2 children)

@robertabarone @informapirata @eticadigitale @filosofia è vero, immagino ci siano degli aspetti "sottili" nel loro funzionamento che possono creare aberrazioni
Nello stesso tempo però mi fa un po' specie tutto questo parlare di ai come rovina dell'umanità, come se ad es non ci fosse il datore di lavoro umano che discrimina i dipendenti messicani o la polizia che se la prende con le persone di colore. E anche lì sono delle scatole nere, vedi il risultato

[–] filobus@mastodon.uno 1 points 2 years ago (2 children)

@robertabarone @informapirata @eticadigitale @filosofia pensa se per paradosso dicessimo "adesso quegli esseri umani non si devono sviluppare perché poi si organizzerebbero e formerebbero il Ku Klux Klan"
Potrebbe avere senso... :)
Ma stiamo cercando di imporre valori morali a un qualcosa nato per essere efficiente. Possiamo farlo a posteriori, giudicando, come si fa in tribunale, in base alle azioni. Possiamo prevenire, ma solo in base al risultato.
1/2

[–] informapirata@mastodon.uno 2 points 2 years ago (1 children)

@filobus ok, ma stai antropomorfizzando una serie di algoritmi e di sistemi di analisi basate su dati statistici 😅

@robertabarone @eticadigitale @filosofia

[–] filobus@mastodon.uno 2 points 2 years ago

@informapirata @robertabarone @eticadigitale @filosofia no, sto deantropofizzando l'uomo 😉
Siamo ancora alla visione tolemaica, in cui l'uomo è al centro di tutto
Se l'intelligenza è in procinto di non essere più un bene esclusivo, bisogna dotarsi di teorie più universali
(Per adesso a livello di paradosso, siamo ancora lontani)

[–] filobus@mastodon.uno 2 points 2 years ago

@robertabarone @informapirata @eticadigitale @filosofia perché sarà sempre una scatola nera, temo, è fatto per esserlo, lo vogliamo noi, che faccia cose al dii sopra delle nostre possibilità (le ai possono essere comprese veramente solo da altre ai).
Il problema delle ai è che se sbagliano lo fanno alla grande, in modo molto più efficiente di noi. E noi potremmo non essere in grado di capirlo
Alla fine è l'uomo che deve diventare più intelligente
2/2

[–] informapirata@mastodon.uno 1 points 2 years ago (1 children)

@filobus @robertabarone @eticadigitale @filosofia approfitto per segnalare questa critica di alla lettera in questione:

«La lettera aperta sulla moratoria dell'Intelligenza Artificiale è fuorviante: rispetto ai pericoli fantascientifici dell'IA ignora i rischi reali.
Disinformazione, impatto sul lavoro e sicurezza sono tutti rischi. Ma non nel modo in cui implica la lettera.»

https://feddit.it/post/193394

load more comments (8 replies)
load more comments (8 replies)