AP indaga su DUO per discriminazione nello screening delle frodi – Professionista IT – Notizie

Mi sorprende che molte persone qui si convincano subito che DUO non ha fatto nulla di male, soprattutto dopo la vicenda dei guadagni. Esistono diversi modi in cui DUO (accidentalmente) rende i dati uguali al bias: pensa a dati memorizzati non necessari come il nome e il codice postale dei genitori, ad esempio. Il nome non è necessario perché non è specifico. “Muhammad” è probabilmente il nome più popolare al mondo. Se prendi il 5% della popolazione mondiale, gran parte porterà questo nome.

  • Confondere la probabilità indipendente con la probabilità dipendente

Supponiamo che ci siano tre gruppi (A, B, C) in cui ogni individuo ha un’auto
Una probabilità indipendente di 1/3 significa che su tutta la popolazione (A+B+C) 1/3 ha una macchina rossa. 1/3 di A ha un’auto rossa, 1/3 di B ha un’auto rossa e 1/3 di C ha un’auto rossa.
Una probabilità dipendente di 1/3 significa che ad essa è associata un’altra probabilità. Quindi c’è una probabilità di 1/3 di avere un’auto blu nella popolazione B. 1/5 nella popolazione C e 0 in A. Il campionamento non te lo dirà, ed è probabilmente qui che l’algoritmo ha sbagliato. Soprattutto quando esegui un algoritmo di autoapprendimento su di esso.

Supponiamo che ogni popolazione abbia 10 individui. C’è una possibilità indipendente di 1/3 di un’auto verde. Quindi 10 su un’intera popolazione di 30. Ma non 3 volte 1/3 di una persona non può avere un’auto verde, quindi una popolazione ottiene 1 auto verde in più. Gli altri due tengono 3 auto verdi.

In questo esempio: la bambola A ha 4 auto verdi e B e C 3 auto verdi. In un esemplare successivo, dopo un periodo in cui le auto verdi si vendevano in abbondanza, si presta maggiore attenzione al pop A, perché ne aveva già di più. Con l’aggiustamento della ponderazione si fanno 4 prelievi in ​​A e 3 in B e C. Le possibilità di averne di più in A sono maggiori e quindi la volta successiva si otterrà nuovamente una concentrazione maggiore per i prelievi. Questo problema secolare è una profezia che si autoavvera e quindi deve essere guardato attentamente.

  • Affidarsi troppo ai dati più vecchi
READ  Nuova maniglia sul bagaglio a mano easyJet

Lavoriamo principalmente con dati noti. Persone arrestate e indagate. Le persone che sono abbastanza sagge da sfuggire al controllo o che sono in linea con la legge non sono indagate e quindi non visibili. E così si rifiuterà l’accento sulle variabili più certe.

  • Situazione/bisogno sociale

Non un punto tecnico, ma importante: un algoritmo non guarda al perché, ma solo al dove. Qualcuno che vive fuori casa ma deve comunque tornare a casa per un aiuto mentale, per esempio, è considerato più veloce di qualcuno che può continuare attivamente a giocare. aiuto, è più probabile che ti becchino.

  • Possibili conclusioni errate

Gli autori possono benissimo essere scoperti, ma un algoritmo di autoapprendimento può farlo anche con argomentazioni scadenti. Esempi di affermazioni: Conclusione: il figlio si sta muovendo. Argomento: Il sole rotola sulla terra. Conclusione: il King’s Day è un giorno festivo. Argomento: si celebrano molte feste.

È possibile anche il contrario, giungendo a conclusioni sbagliate con argomentazioni corrette.

Quindi va bene, lascia che AP DUO indaghi e spera che le persone non siano ingiustamente sjakie.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *