Mi sorprende che molte persone qui si convincano subito che DUO non ha fatto nulla di male, soprattutto dopo la vicenda dei guadagni. Esistono diversi modi in cui DUO (accidentalmente) rende i dati uguali al bias: pensa a dati memorizzati non necessari come il nome e il codice postale dei genitori, ad esempio. Il nome non è necessario perché non è specifico. “Muhammad” è probabilmente il nome più popolare al mondo. Se prendi il 5% della popolazione mondiale, gran parte porterà questo nome.
- Confondere la probabilità indipendente con la probabilità dipendente
Supponiamo che ci siano tre gruppi (A, B, C) in cui ogni individuo ha un’auto
Una probabilità indipendente di 1/3 significa che su tutta la popolazione (A+B+C) 1/3 ha una macchina rossa. 1/3 di A ha un’auto rossa, 1/3 di B ha un’auto rossa e 1/3 di C ha un’auto rossa.
Una probabilità dipendente di 1/3 significa che ad essa è associata un’altra probabilità. Quindi c’è una probabilità di 1/3 di avere un’auto blu nella popolazione B. 1/5 nella popolazione C e 0 in A. Il campionamento non te lo dirà, ed è probabilmente qui che l’algoritmo ha sbagliato. Soprattutto quando esegui un algoritmo di autoapprendimento su di esso.
Supponiamo che ogni popolazione abbia 10 individui. C’è una possibilità indipendente di 1/3 di un’auto verde. Quindi 10 su un’intera popolazione di 30. Ma non 3 volte 1/3 di una persona non può avere un’auto verde, quindi una popolazione ottiene 1 auto verde in più. Gli altri due tengono 3 auto verdi.
In questo esempio: la bambola A ha 4 auto verdi e B e C 3 auto verdi. In un esemplare successivo, dopo un periodo in cui le auto verdi si vendevano in abbondanza, si presta maggiore attenzione al pop A, perché ne aveva già di più. Con l’aggiustamento della ponderazione si fanno 4 prelievi in A e 3 in B e C. Le possibilità di averne di più in A sono maggiori e quindi la volta successiva si otterrà nuovamente una concentrazione maggiore per i prelievi. Questo problema secolare è una profezia che si autoavvera e quindi deve essere guardato attentamente.
- Affidarsi troppo ai dati più vecchi
Lavoriamo principalmente con dati noti. Persone arrestate e indagate. Le persone che sono abbastanza sagge da sfuggire al controllo o che sono in linea con la legge non sono indagate e quindi non visibili. E così si rifiuterà l’accento sulle variabili più certe.
- Situazione/bisogno sociale
Non un punto tecnico, ma importante: un algoritmo non guarda al perché, ma solo al dove. Qualcuno che vive fuori casa ma deve comunque tornare a casa per un aiuto mentale, per esempio, è considerato più veloce di qualcuno che può continuare attivamente a giocare. aiuto, è più probabile che ti becchino.
- Possibili conclusioni errate
Gli autori possono benissimo essere scoperti, ma un algoritmo di autoapprendimento può farlo anche con argomentazioni scadenti. Esempi di affermazioni: Conclusione: il figlio si sta muovendo. Argomento: Il sole rotola sulla terra. Conclusione: il King’s Day è un giorno festivo. Argomento: si celebrano molte feste.
È possibile anche il contrario, giungendo a conclusioni sbagliate con argomentazioni corrette.
Quindi va bene, lascia che AP DUO indaghi e spera che le persone non siano ingiustamente sjakie.
“Fanatico di Twitter. Piantagrane. Fanatico del bacon malvagio. Giocatore sottilmente affascinante. Esperto di birra.”
You may also like
-
Jumbo prevede di poter ridurre con “aumenti di prezzo eccessivi” | Economia
-
La legge sull’edilizia sconvolge il Senato con Hugo de Jonge
-
Caroline van der Plas di nuovo leader BBB
-
Le modelle che sembrano troppo giovani sono bandite dagli annunci di alcolici AI | Economia
-
Zutphen avrà ancora una volta una linea ferroviaria internazionale