Google nega che Bard sia stato addestrato sui dati di ChatGPT – Professionista IT – Novità

Ecco perché penso che sia importante prestare molta attenzione alla scelta dei dati di allenamento. Ci sono problemi etici e legali nell’appropriarsi di contenuti esistenti e, inoltre, non dovrebbe essere troppo facile e troppo veloce a causa della qualità e della pertinenza. Scegliere, preparare e ottimizzare correttamente i dati di allenamento può essere un lavoro immane, e può comportare anche mille rischi. Ma secondo me anche raschiare una vasta selezione di pagine Internet non è abbastanza sofisticato.

Quasi tutta la comunicazione umana è seriamente distorta, con solo occasionalmente comunicazioni veramente solide e complete. Ad esempio, i migliori pezzi scientifici basati su dozzine di lavori precedenti perfettamente provati. O il miglior giornalismo con nient’altro che verità e inquadratura onesta. Anche a questo può essere attribuita una parte considerevole di Wikipedia, sebbene più variabile. Queste sono le eccezioni, quindi c’è pochissimo materiale umano su cui un modello può essere addestrato che non sia problematico. Comunque per scopi fattuali; forme d’arte come la pittura o la poesia hanno meno problemi del diritto d’autore. Ma quando si tratta di politica, società o persone, facciamo molte supposizioni e ignoriamo le sfumature, anche con molta esperienza. Ognuno ha la propria visione aneddotica basata sulla propria visione del mondo, educazione, cultura, retorica ricevuta e le proprie preferenze, paure, ecc. Noi stessi non siamo macchine oggettive, quindi i modelli non possono diventare facilmente oggettivi.

Dans l’ensemble, je pense que nous allons connaître une décennie ou deux des hauts et des bas les plus bizarres de la technologie de l’IA, et de la manière dont les propriétaires, les autres entreprises, les gouvernements et les individus interagissent avec Lei. Dovremo tutti imparare cosa si può e cosa non si può fare, cosa è più o meno fazioso, quali opere o testi sono inclusi nei dati di formazione, come questi dati sono annotati o archiviati, il giusto grado di trasparenza, ecc., ecc. domande e problemi a cui probabilmente non abbiamo ancora pensato. Ciò che ora pensiamo sia migliore o più sicuro può anche causare problemi di cui non sappiamo ancora abbastanza. Sarà per tentativi ed errori.

READ  Leclerc e Sainz spiegano cosa è successo

Lo sviluppo lento andrebbe bene, con molta attenzione al processo e agli effetti dell’IA, e non solo la creazione di un modello più intelligente il prima possibile come risultato finale. Ma ora la gara è iniziata ed è di nuovo tutta una questione di profitto, quindi entreranno in gioco altre considerazioni.

[Reactie gewijzigd door geert1 op 30 maart 2023 15:52]

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *