
Dátové súbory čoraz viac formujú dôležité rozhodnutia, od toho, kam spoločnosti zacieľujú svoju reklamu, až po to, ako vlády rozdeľujú zdroje. Čo sa však stane, keď údaje, na ktoré sa spoliehajú, sú nesprávne alebo neúplné?
Ira hovorí s technológom Kasiou Chmielinski, keď testujú algoritmus, ktorý predpovedá rasu alebo etnickú príslušnosť osoby na základe niekoľkých detailov, ako je meno a PSČ, algoritmus Bayseian Improved Surname Geocoding algorithm (BISG). Môžete sa pozrieť na jeden z modelov, ktoré použili tu . BISG je často používaný vládnymi agentúrami a korporáciami na vyplnenie chýbajúcich údajov o rase a etnicite – okrem toho, že často odhaduje nesprávne, s potenciálne ďalekosiahlymi účinkami.
Ďalšie čítanie
- Prečítajte si príbeh v Los Angeles Times o tom, ako Federálne úrady použili algoritmus Rand Corp. na zistenie diskriminácie a ako to GOP nazvala junk science.
- Politický správy o tom, ako CDC prešlo kontrolou po tom, čo sa snažilo nahlásiť údaje o rase a etnickej príslušnosti COVID .
- Pozri správa o používaní verejne dostupných informácií na zastupovanie neidentifikovateľnej rasy a etnického pôvodu Úradom pre finančnú ochranu spotrebiteľov.
- Odhlásiť sa graf zobrazujúce odhadované vakcíny proti COVID-19 podávané podľa rasy a etnika.
- Čítať Objednávka súhlasu Úradu pre finančnú ochranu spotrebiteľov Spojených štátov amerických .
- Nájdite si papier nová metóda na odhadovanie rasových, etnických a súvisiacich rozdielov, kde v administratívnych záznamoch chýbajú informácie, ktoré si sami nahlásili Výskum zdravotníckych služieb.