Hot News

పక్షపాతాన్ని పరిష్కరించడం మరియు AI వ్యవస్థలలో సమ్మతిని నిర్ధారించడం

కంపెనీలు స్వయంచాలక వ్యవస్థలపై ఎక్కువ ఆధారపడటంతో, నీతి ఒక ముఖ్యమైన ఆందోళనగా మారింది. అల్గోరిథంలు గతంలో ప్రజలు తీసుకున్న నిర్ణయాలు ఎక్కువగా ఉన్నాయి, మరియు ఈ వ్యవస్థలు ఉద్యోగాలు, క్రెడిట్, ఆరోగ్య సంరక్షణ మరియు చట్టపరమైన ఫలితాలపై ప్రభావం చూపుతాయి. ఆ శక్తి బాధ్యతను కోరుతుంది. స్పష్టమైన నియమాలు మరియు నైతిక ప్రమాణాలు లేకుండా, ఆటోమేషన్ అన్యాయాన్ని బలోపేతం చేస్తుంది మరియు హాని కలిగిస్తుంది.

నీతిని విస్మరించడం నిజమైన వ్యక్తులను నిజమైన మార్గాల్లో ప్రభావితం చేస్తుంది, ఇది ప్రజల నమ్మకాన్ని మార్చడం మాత్రమే కాదు. పక్షపాత వ్యవస్థలు రుణాలు, ఉద్యోగాలు లేదా ఆరోగ్య సంరక్షణను తిరస్కరించగలవు మరియు గార్డ్రెయిల్స్ అమల్లో లేకుంటే ఆటోమేషన్ చెడు నిర్ణయాల వేగాన్ని పెంచుతుంది. వ్యవస్థలు తప్పు కాల్ చేసినప్పుడు, అప్పీల్ చేయడం లేదా ఎందుకు అర్థం చేసుకోవడం చాలా కష్టం, మరియు పారదర్శకత లేకపోవడం చిన్న లోపాలను పెద్ద సమస్యలుగా మారుస్తుంది.

AI వ్యవస్థలలో పక్షపాతాన్ని అర్థం చేసుకోవడం

ఆటోమేషన్‌లో పక్షపాతం తరచుగా డేటా నుండి వస్తుంది. చారిత్రక డేటా వివక్షను కలిగి ఉంటే, దానిపై శిక్షణ పొందిన వ్యవస్థలు ఆ నమూనాలను పునరావృతం చేయవచ్చు. ఉదాహరణకు, ఉద్యోగ దరఖాస్తుదారులను పరీక్షించడానికి ఉపయోగించే AI సాధనం లింగ, జాతి లేదా వయస్సు ఆధారంగా అభ్యర్థులను తిరస్కరించవచ్చు, దాని శిక్షణ డేటా గత పక్షపాతాలను ప్రతిబింబిస్తుంది. బయాస్ డిజైన్ ద్వారా కూడా ప్రవేశిస్తుంది, ఇక్కడ ఏమి కొలవాలి, ఏ ఫలితాలను అనుకూలంగా తీసుకోవాలి మరియు డేటాను ఎలా లేబుల్ చేయాలో ఎంపికలు వక్రీకృత ఫలితాలను సృష్టించగలవు.

అనేక రకాల పక్షపాతం ఉన్నాయి. డేటా సెట్ అన్ని సమూహాలను సూచించనప్పుడు నమూనా పక్షపాతం జరుగుతుంది, అయితే లేబులింగ్ పక్షపాతం ఆత్మాశ్రయ మానవ ఇన్పుట్ నుండి రావచ్చు. ఆప్టిమైజేషన్ లక్ష్యాలు లేదా అల్గోరిథం రకం వంటి సాంకేతిక ఎంపికలు కూడా ఫలితాలను వక్రీకరిస్తాయి.

సమస్యలు కేవలం సైద్ధాంతికమే కాదు. మగ అభ్యర్థులకు మరియు కొందరు ఆదరించిన తరువాత అమెజాన్ 2018 లో నియామక సాధనాన్ని ఉపయోగించడాన్ని వదిలివేసింది ముఖ గుర్తింపు కాకాసియన్ల కంటే ఎక్కువ రేట్ల వద్ద రంగు ప్రజలను తప్పుగా గుర్తించినట్లు వ్యవస్థలు కనుగొనబడ్డాయి. ఇటువంటి సమస్యలు నమ్మకాన్ని దెబ్బతీస్తాయి మరియు చట్టపరమైన మరియు సామాజిక సమస్యలను లేవనెత్తుతాయి.

మరొక నిజమైన ఆందోళన ప్రాక్సీ బయాస్. జాతి వంటి రక్షిత లక్షణాలను నేరుగా ఉపయోగించకపోయినా, పిన్ కోడ్ లేదా విద్యా స్థాయి వంటి ఇతర లక్షణాలు స్టాండ్-ఇన్‌లుగా పనిచేస్తాయి, అనగా ఇన్పుట్ తటస్థంగా అనిపించినప్పటికీ వ్యవస్థ ఇప్పటికీ వివక్ష చూపవచ్చు, ఉదాహరణకు ధనిక లేదా పేద ప్రాంతాల ఆధారంగా. ప్రాక్సీ బయాస్ జాగ్రత్తగా పరీక్ష లేకుండా గుర్తించడం కష్టం. AI బయాస్ సంఘటనల పెరుగుదల సిస్టమ్ రూపకల్పనలో ఎక్కువ శ్రద్ధ అవసరమని సంకేతం.

ముఖ్యమైన ప్రమాణాలకు అనుగుణంగా

చట్టాలు పట్టుబడుతున్నాయి. 2024 లో ఆమోదించిన EU యొక్క AI చట్టం AI వ్యవస్థలను ప్రమాదంతో కలిగి ఉంది. అధిక-ప్రమాద వ్యవస్థలు, నియామకం లేదా క్రెడిట్ స్కోరింగ్‌లో ఉపయోగించినట్లుగా, పారదర్శకత, మానవ పర్యవేక్షణ మరియు బయాస్ తనిఖీలతో సహా కఠినమైన అవసరాలను తీర్చాలి. యుఎస్‌లో, ఒకే AI చట్టం లేదు, కానీ నియంత్రకాలు చురుకుగా ఉన్నాయి. AI- నడిచే నియామక సాధనాల నష్టాల గురించి ఈక్వల్ ఎంప్లాయ్‌మెంట్ ఆపర్చునిటీ కమిషన్ (EEOC) యజమానులను హెచ్చరిస్తుంది మరియు ఫెడరల్ ట్రేడ్ కమిషన్ (FTC) కూడా పక్షపాత వ్యవస్థలు వివక్షత వ్యతిరేక చట్టాలను ఉల్లంఘించవచ్చని సంకేతాలు ఇచ్చాయి.

సురక్షితమైన మరియు నైతిక ఉపయోగం గురించి మార్గదర్శకత్వం అందిస్తూ, AI హక్కుల బిల్లు కోసం వైట్ హౌస్ బ్లూప్రింట్ జారీ చేసింది. ఒక చట్టం కానప్పటికీ, ఇది ఐదు ముఖ్య ప్రాంతాలను కవర్ చేస్తుంది: సేఫ్ సిస్టమ్స్, అల్గోరిథమిక్ వివక్షత రక్షణలు, డేటా గోప్యత, నోటీసు మరియు వివరణ మరియు మానవ ప్రత్యామ్నాయాలు.

కంపెనీలు మాకు రాష్ట్ర చట్టాలను కూడా చూడాలి. కాలిఫోర్నియాకు మారింది అల్గోరిథమిక్ నిర్ణయం తీసుకోవడాన్ని నియంత్రించండిమరియు ఇల్లినాయిస్ వీడియో ఇంటర్వ్యూలలో AI ను ఉపయోగించినట్లయితే ఉద్యోగ దరఖాస్తుదారులను చెప్పడానికి సంస్థలు అవసరం. పాటించడంలో విఫలమైతే జరిమానాలు మరియు వ్యాజ్యాలు తెస్తాయి.

న్యూయార్క్ నగరంలోని రెగ్యులేటర్లకు ఇప్పుడు నియామకానికి ఉపయోగించే AI వ్యవస్థల కోసం ఆడిట్ అవసరం. లింగ మరియు జాతి సమూహాలలో సిస్టమ్ సరసమైన ఫలితాలను ఇస్తుందో లేదో ఆడిట్లు చూపించాలి మరియు ఆటోమేషన్ ఉపయోగించినప్పుడు యజమానులు కూడా దరఖాస్తుదారులకు తెలియజేయాలి.

సమ్మతి కేవలం జరిమానాలను నివారించడం కంటే ఎక్కువ – ఇది నమ్మకాన్ని స్థాపించడం కూడా. వారి వ్యవస్థలు సరసమైనవి మరియు జవాబుదారీగా ఉన్నాయని చూపించగల సంస్థలు వినియోగదారులు మరియు నియంత్రకుల నుండి మద్దతు పొందే అవకాశం ఉంది.

మంచి వ్యవస్థలను ఎలా నిర్మించాలి

ఆటోమేషన్‌లో నీతి అనుకోకుండా జరగదు. ఇది ప్రణాళిక, సరైన సాధనాలు మరియు కొనసాగుతున్న శ్రద్ధ తీసుకుంటుంది. పక్షపాతం మరియు సరసతను ప్రారంభం నుండి ఈ ప్రక్రియలో నిర్మించాలి, తరువాత బోల్ట్ చేయకూడదు. ఇది లక్ష్యాలను నిర్దేశించడం, సరైన డేటాను ఎంచుకోవడం మరియు పట్టిక వద్ద సరైన స్వరాలను సహా.

బాగా చేయడం అంటే కొన్ని కీలక వ్యూహాలను అనుసరించడం:

పక్షపాత మదింపులను నిర్వహించడం

పక్షపాతాన్ని అధిగమించడంలో మొదటి దశ దానిని కనుగొనడం. వ్యవస్థలు అన్యాయమైన ఫలితాలను ఇవ్వకుండా చూసుకోవడానికి, అభివృద్ధి నుండి విస్తరణ వరకు పక్షపాత మదింపులను ముందుగానే నిర్వహించాలి. కొలమానాలు సమూహాలలో లోపం రేట్లు లేదా నిర్ణయాలు కలిగి ఉండవచ్చు, ఇవి ఇతరులకన్నా ఒక సమూహంపై ఎక్కువ ప్రభావాన్ని చూపుతాయి.

సాధ్యమైనప్పుడు బయాస్ ఆడిట్లను మూడవ పార్టీలు చేయాలి. అంతర్గత సమీక్షలు కీలక సమస్యలను కోల్పోతాయి లేదా స్వాతంత్ర్యం లేకపోవడం మరియు ఆబ్జెక్టివ్ ఆడిట్ ప్రక్రియలలో పారదర్శకత ప్రజల నమ్మకాన్ని పెంచుతుంది.

విభిన్న డేటా సెట్లను అమలు చేస్తోంది

విభిన్న శిక్షణ డేటా అన్ని వినియోగదారు సమూహాల నుండి, ముఖ్యంగా తరచుగా మినహాయించబడిన నమూనాలను చేర్చడం ద్వారా పక్షపాతాన్ని తగ్గించడంలో సహాయపడుతుంది. మగ స్వరాలపై ఎక్కువగా శిక్షణ పొందిన వాయిస్ అసిస్టెంట్ మహిళలకు పేలవంగా పనిచేస్తాడు మరియు తక్కువ-ఆదాయ వినియోగదారులపై డేటా లేని క్రెడిట్ స్కోరింగ్ మోడల్ వారిని తప్పుగా ప్రకటించవచ్చు.

డేటా వైవిధ్యం మోడళ్లకు వాస్తవ ప్రపంచ వినియోగానికి అనుగుణంగా సహాయపడుతుంది. వినియోగదారులు వేర్వేరు నేపథ్యాల నుండి వచ్చారు మరియు వ్యవస్థలు దానిని ప్రతిబింబించాలి. భౌగోళిక, సాంస్కృతిక మరియు భాషా రకాలు అన్నీ.

విభిన్న డేటా సొంతంగా సరిపోదు-ఇది కూడా ఖచ్చితమైనది మరియు బాగా లేబుల్ చేయబడాలి. చెత్త, చెత్త అవుట్ ఇప్పటికీ వర్తిస్తుంది, కాబట్టి జట్లు లోపాలు మరియు అంతరాలను తనిఖీ చేయాలి మరియు వాటిని సరిదిద్దాలి.

డిజైన్‌లో చేరికను ప్రోత్సహిస్తుంది

కలుపుకొని ఉన్న రూపకల్పనలో ప్రభావితమైన వ్యక్తులను కలిగి ఉంటుంది. డెవలపర్లు వినియోగదారులతో, ముఖ్యంగా హాని కలిగించే వారితో సంప్రదించాలి (లేదా పక్షపాత AI ని ఉపయోగించడం ద్వారా, హాని కలిగించవచ్చు), ఎందుకంటే ఇది గుడ్డి మచ్చలను వెలికి తీయడానికి సహాయపడుతుంది. ఉత్పత్తి సమీక్షలలో న్యాయవాద సమూహాలు, పౌర హక్కుల నిపుణులు లేదా స్థానిక సంఘాలతో సంబంధం కలిగి ఉండటం దీని అర్థం. సిస్టమ్స్ ప్రత్యక్ష ప్రసారం కావడానికి ముందే వినడం దీని అర్థం, ఫిర్యాదులు వచ్చిన తర్వాత కాదు.

కలుపుకొని ఉన్న డిజైన్ అంటే క్రాస్-డిసిప్లినరీ జట్లు. నీతి, చట్టం మరియు సాంఘిక శాస్త్రం నుండి స్వరాలను తీసుకురావడం నిర్ణయం తీసుకోవడాన్ని మెరుగుపరుస్తుంది, ఎందుకంటే ఈ జట్లు వేర్వేరు ప్రశ్నలు మరియు స్పాట్ రిస్క్‌లను అడిగే అవకాశం ఉంది.

జట్లు కూడా వైవిధ్యంగా ఉండాలి. విభిన్న జీవిత అనుభవాలు ఉన్న వ్యక్తులు వేర్వేరు సమస్యలను గుర్తిస్తారు, మరియు సజాతీయ సమూహం నిర్మించిన వ్యవస్థ ఇతరులు పట్టుకునే నష్టాలను విస్మరించవచ్చు.

ఏ కంపెనీలు సరిగ్గా చేస్తున్నాయి

కొన్ని సంస్థలు మరియు ఏజెన్సీలు AI పక్షపాతాన్ని పరిష్కరించడానికి మరియు సమ్మతిని మెరుగుపరచడానికి చర్యలు తీసుకుంటున్నాయి.

2005 మరియు 2019 మధ్య, డచ్ టాక్స్ అండ్ కస్టమ్స్ అడ్మినిస్ట్రేషన్ 26,000 కుటుంబాలు పిల్లల సంరక్షణ ప్రయోజనాలను మోసపూరితంగా క్లెయిమ్ చేశారని తప్పుగా ఆరోపించాయి. మోసం గుర్తింపు వ్యవస్థలో ఉపయోగించిన అల్గోరిథం ద్వంద్వ జాతీయతలు మరియు తక్కువ ఆదాయాలతో ఉన్న కుటుంబాలను అసమానంగా లక్ష్యంగా చేసుకుంది. ఈ పతనం ప్రజల ఆగ్రహం మరియు 2021 లో డచ్ ప్రభుత్వ రాజీనామాకు దారితీసింది.

లింక్డ్ఇన్ తన ఉద్యోగ సిఫార్సు అల్గోరిథంలలో లింగ పక్షపాతంపై పరిశీలనను ఎదుర్కొంది. MIT నుండి పరిశోధన మరియు ఇతర వర్గాలు పురుషులు అధిక-చెల్లించే నాయకత్వ పాత్రలతో సరిపోయే అవకాశం ఉందని కనుగొన్నారు, కొంతవరకు వినియోగదారులు ఉద్యోగాల కోసం ఎలా దరఖాస్తు చేసుకున్నారనే దానిపై ప్రవర్తనా నమూనాల కారణంగా. ప్రతిస్పందనగా, లింక్డ్ఇన్ అభ్యర్థుల యొక్క మరింత ప్రతినిధి కొలనును నిర్ధారించడానికి ద్వితీయ AI వ్యవస్థను అమలు చేసింది.

మరొక ఉదాహరణ న్యూయార్క్ సిటీ ఆటోమేటెడ్ ఎంప్లాయ్‌మెంట్ డెసిషన్ టూల్ (AEDT) చట్టంఇది జనవరి 1, 2023 నుండి జూలై 5, 2023 నుండి అమలుతో అమలులోకి వచ్చింది. ఒక సంవత్సరం ఉపయోగంలో స్వతంత్ర పక్షపాత ఆడిట్ నిర్వహించడానికి నియామకం లేదా పదోన్నతి కోసం స్వయంచాలక సాధనాలను ఉపయోగించడం, ఫలితాల యొక్క సారాంశాన్ని బహిరంగంగా బహిర్గతం చేయడం మరియు కనీసం 10 పనిదినాలను అడ్వాన్స్ మరియు ఫెయిర్డైరింగ్‌లోకి తీసుకురావడానికి నియమాలు, చట్టబద్ధంగా, చట్టబద్ధంగా హింసించే నియమాలు, చట్టబద్ధంగా బహిష్కరించడానికి ఈ చట్టానికి యజమానులు మరియు ఉపాధి సంస్థలు అవసరం.

ఆరోగ్య బీమా సంస్థ ఎట్నా ఒక లాంచ్ చేసింది అంతర్గత సమీక్ష దాని దావా ఆమోదం అల్గోరిథంలలో, మరియు కొన్ని నమూనాలు తక్కువ-ఆదాయ రోగులకు ఎక్కువ ఆలస్యం చేయటానికి దారితీశాయని కనుగొన్నారు. డేటా ఎలా బరువుగా ఉందో కంపెనీ మార్చింది మరియు ఈ అంతరాన్ని తగ్గించడానికి మరింత పర్యవేక్షణను జోడించింది.

AI పక్షపాతాన్ని పరిష్కరించవచ్చని ఉదాహరణలు చూపిస్తున్నాయి, అయితే దీనికి కృషి, స్పష్టమైన లక్ష్యాలు మరియు బలమైన జవాబుదారీతనం అవసరం.

మేము ఇక్కడ నుండి ఎక్కడికి వెళ్తాము

ఆటోమేషన్ ఇక్కడే ఉంది, కానీ వ్యవస్థలపై నమ్మకం ఫలితాల యొక్క సరసత మరియు స్పష్టమైన నియమాలపై ఆధారపడి ఉంటుంది. AI వ్యవస్థలలోని పక్షపాతం హాని మరియు చట్టపరమైన ప్రమాదాన్ని కలిగిస్తుంది, మరియు సమ్మతి తనిఖీ చేయడానికి ఒక పెట్టె కాదు – ఇది సరైన పనులలో భాగం.

నైతిక ఆటోమేషన్ అవగాహనతో మొదలవుతుంది. ఇది బలమైన డేటా, రెగ్యులర్ టెస్టింగ్ మరియు కలుపుకొని డిజైన్ తీసుకుంటుంది. చట్టాలు సహాయపడతాయి, కానీ నిజమైన మార్పు కంపెనీ సంస్కృతి మరియు నాయకత్వంపై కూడా ఆధారపడి ఉంటుంది.

(ఫోటో నుండి పిక్సాబే)

ఇవి కూడా చూడండి: గ్లోబల్ టెక్ పెట్టుబడులకు మిడిల్ ఈస్ట్ ఎందుకు హాట్ ప్లేస్

పరిశ్రమ నాయకుల నుండి AI మరియు పెద్ద డేటా గురించి మరింత తెలుసుకోవాలనుకుంటున్నారా? తనిఖీ చేయండి AI & పెద్ద డేటా ఎక్స్‌పో ఆమ్స్టర్డామ్, కాలిఫోర్నియా మరియు లండన్లలో జరుగుతోంది. సమగ్ర సంఘటనతో సహా ఇతర ప్రముఖ సంఘటనలతో సహ-స్థాపించబడింది ఇంటెలిజెంట్ ఆటోమేషన్ కాన్ఫరెన్స్, బ్లాక్ఎక్స్, డిజిటల్ ట్రాన్స్ఫర్మేషన్ వీక్మరియు సైబర్ సెక్యూరిటీ & క్లౌడ్ ఎక్స్‌పో.

టెక్ఫోర్జ్ చేత శక్తినిచ్చే ఇతర రాబోయే ఎంటర్ప్రైజ్ టెక్నాలజీ ఈవెంట్స్ మరియు వెబ్‌నార్లను అన్వేషించండి ఇక్కడ.

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *

Top