Տարատեսակ

Մեր քաջարի նոր աշխարհ. Ինչու է AI- ի առաջընթացը էթիկական մտահոգություններ առաջացնում

Մեր քաջարի նոր աշխարհ. Ինչու է AI- ի առաջընթացը էթիկական մտահոգություններ առաջացնում

Գրեթե ամեն օր մենք լսում ենք AI- ի նոր առաջխաղացումների մասին, որոնք հնարավորություն են տալիս գործունեության և մարդկանց վերահսկման նոր եղանակներ `վերափոխելով մերօրյա կյանքի շատ գործընթացներ:

ՀԱՐԱԿԻ. ԲԵՆԹԱՄ, ՀՈԲԲՍ ԵՎ Արհեստական ​​ինտելեկտուալության էթիկա

Այն, ինչ մենք կարող ենք այնուհետև լսել ամեն օր, այն է, թե ինչպես կարող է ԱԻ-ն սրել ռասայական և գենդերային կողմնակալությունը և սպառնալիք ներկայացնել գաղտնիության, աշխատանքի անվտանգության և տնտեսական բարեկեցության համար: Դա կարող է նույնիսկ պատերազմ առաջացնել Իլոն Մասկի տեսանկյունից:

AI- ով աշխատող դեմքի ճանաչումը մտահոգություններ է առաջացնում գաղտնիության և կողմնակալության վերաբերյալ

Ինչպես բացատրվել է Դեմքի ճանաչման մտահոգություններում. Microsoft- ի վեց էթիկական սկզբունքներ. «Արհեստական ​​բանականությամբ աշխատող դեմքի ճանաչման տեխնոլոգիայի լայն կիրառումը կարող է հանգեցնել մարդկանց անձնական կյանքի մեջ որոշակի նոր ներխուժումների»:

Հաշվի առնելով անվտանգության անունով մարդկանց իմիջը գրավելու և հանրային փողոցներում նույնականացնելու հնարավորությունը ՝ մարդիկ արդարացիորեն մտահոգված են, որ կկորցնեն իրենց գաղտնիությունը պահպանելու ունակությունը: Դա տարածվում է դպրոցում և աշխատավայրում, ինչպես մանրամասն նկարագրված է հոդվածում:

Ա 2018 թ New York Times հոդվածը բարձրացրեց մեկ այլ մտահոգություն ՝ «Դեմքի ճանաչումը ճիշտ է, եթե դու սպիտակ տղա ես» վերնագրով: Խնդիրը սա է.

«Որքան մուգ է մաշկը, այնքան ավելի շատ սխալներ են առաջանում. Մինչև 35 տոկոսը ավելի մուգ մաշկ ունեցող կանանց պատկերների համար, ըստ նոր ուսումնասիրության, որը թարմություն է ստեղծում ՝ չափելով, թե ինչպես է տեխնոլոգիան աշխատում տարբեր ռասայական և սեռի մարդկանց վրա»:

Այս ցուցանիշների աղբյուրը ITոյ Բուոլամվինին է, MIT Media Lab- ի հետազոտող, և Ալգորիթմական արդարադատության լիգայի (AJL) հիմնադիրը: Նա նվիրվել է իրեն ՝ բացահայտելու, թե ինչպես են կողմնակալությունները ներթափանցում AI- ն և այդպիսով շեղում արդյունքները դեմքի ճանաչման համար:

Տեսեք նրա TED ելույթը այս տեսանյութում.

Այս տարի Բուոլամնվինին հրապարակեց Տորոնտոյի համալսարանից Inioluwa Deborah Raji- ի հետ կատարած իր հետազոտության արդյունքները ՝ Գործող աուդիտ. «Հետազոտելով առևտրային AI արտադրանքի հրապարակային անվանման կողմնակալ գործունեության արդյունքի ազդեցության ուսումնասիրությունը»:

Ըստ այդ ուսումնասիրության, Amazon- ի Rekognition ծրագրակազմը խառնաշփոթ է առաջացրել նաև նրանց մեջ, ովքեր դասվում են սպիտակամորթ մարդկանց շարքին: Ըստ ուսումնասիրության, դա սխալ է ճանաչել կանանց որպես տղամարդկանց գրեթե մեկ հինգերորդ անգամ: Բացի այդ, այն սխալ է հայտնաբերել մուգ մաշկ ունեցող կանանց ՝ որպես տղամարդկանց 31 տոկոսը, ասվում է այնտեղ:

Բուոլամնվինին գրել է միջին գրառում, որում նա անդրադարձել է իր հետազոտություններին, և որ 26 հետազոտողներ պահանջում են, որ Amazon- ը դադարեցնի Rekognition- ի վաճառքը: ACLU- ն նաև ուժեղացրել է ճնշումը `Amazon- ի բաժնետերերին հորդորելով պահանջել վերացնել դեմքի ճանաչման տեխնոլոգիան:

Theնշումն ունեցել է որոշ չափելի արդյունքներ: Վերջերս Սան Ֆրանցիսկոն քվեարկեց այն արգելելու համար, որպեսզի այն արգելվի տեխնոլոգիական գործիքների զինանոցում, որոնք օգտագործում են իրավապահները:

Մտահոգություն AI- ի կողմնակալ խնդրի վերաբերյալ

Մյուսները նաև մատնանշեցին ռասայական կողմնակալության ներուժը, որն ամրապնդվում է AI- ով, մասնավորապես ՝ Քեթի Օ'Նիլը «Մաթեմատիկայի ոչնչացման զենքում. Ինչպես մեծ տվյալներն են ավելացնում անհավասարությունը և սպառնում ժողովրդավարությանը»: Այն, ինչ նա անվանում է «մաթեմատիկայի ոչնչացում», «մոդելների արդյունք է որոնք ամրապնդում են խոչընդոտները ՝ որոշակի ժողովրդագրական բնակչությանը անբարենպաստ պահելով ՝ համարելով, որ դրանք ավելի քիչ են արժանի վարկի, կրթության, աշխատանքի հնարավորությունների, պայմանական վաղաժամկետ ազատման և այլն »:

Տեսեք նրա TED ելույթը այստեղ ՝

Անկախ նրանից, թե խնդիրը բխում է հավաքագրված տվյալների թերություններից կամ տվյալների վերլուծության համար ստեղծված ալգորիթմներից, մարդիկ այլևս բավարարված չեն վստահել AI- ին ՝ որպես օբյեկտիվ և ամենագետ: Նրանք այժմ պահանջում են բացատրելի AI, որը թափանցիկություն է ներմուծում գործընթացի մեջ և թույլ է տալիս ի հայտ բերել և լուծել կողմնակալությունները և այլ թերությունները:

«Կենսական նշանակություն ունի AI- ի վերաբերյալ ցանկացած բան դարձնելը բացատրելի, արդար, անվտանգ և տոհմական գծերով, ինչը նշանակում է, որ յուրաքանչյուր ոք կարող է շատ պարզ տեսնել, թե ինչպես է զարգացել AI- ի ցանկացած կիրառություն և ինչու, հայտարարեց innիննի Ռոմետին, IBM- ի գլխավոր տնօրենը, 2019 թ. հունվարի 9-ին CES- ում իր հիմնական ելույթում: IBM- ն այժմ առաջարկում է խորհրդատվություն կողմնակալության նվազեցման վերաբերյալ `նրանց համար, ովքեր մեքենաշինական համակարգեր են կառուցում:

Ամբողջական հասցեն կարող եք դիտել այստեղ ՝

Էթիկական մտահոգությունները AI- ի ՝ որպես էքզիստենցիալ սպառնալիքի վերաբերյալ

«AI- ն հիմնարար ռիսկ է մարդկային քաղաքակրթության գոյության համար», - պնդեց Իլոն Մասկը 2017-ին Ազգային կառավարիչների ասոցիացիայի ամառային հանդիպման ունկնդիրների առջև հարցազրույցի ժամանակ: Ամբողջությամբ կարող եք տեսնել այս տեսանյութում.

Եթե ​​նախընտրում եք շատ ավելի կարճ վերցնել, կարող եք տեսնել այս տեսանյութը.

Առաջատար տեխնոլոգիայի համար անծանոթ Մասկը վիճում էր մեկի դիրքերից, ով հասկանում է AI- ի և՛ հնարավորությունները, և՛ հետեւանքները: Այդ պատճառով նա պնդում է, որ կանոնակարգերը պետք է դրվեն հիմա, ոչ թե տեխնոլոգիայի զարգացումից և արդեն վտանգ ներկայացնելուց հետո:

Ի տարբերություն բացասական արդյունքների, որոնք կարող էին արդյունք ունենալ նախկինում այլ տեխնոլոգիաներից, նա ասաց, որ սահմանափակված են «անհատներով» և չեն ազդում «հասարակության վրա», - ասաց Մասկը: Այնուամենայնիվ, AI- ն առաջացնում է «հիմնարար, էքզիստենցիալ ռիսկ»:

Մասկի համար այդ ռիսկը ներառում է պատերազմ սկսելը: Նա ներկայացրեց «զուտ հիպոթետիկ» օրինակ, որ հնարավոր է, որ AI- ն դրվի «պահուստային պորտֆելի արժեքը առավելագույնի հասցնելու նպատակ», որը «երկար է պաշտպանվում», և որ նա կանի հնարավորը ՝ իր ավարտին հասնելու համար, ներառյալ պատերազմ սկսելու համար գործի դնելը:

Ավելի քիչ աղետալի նոտայի վրա, Մասկը նաև խոստովանեց, որ AI- ն իսկապես սպառնում է աշխատանքին: Բայց ոմանց համար դա անհանգստանալու իրական աղետն է:

Էթիկական մտահոգություններ AI- ի և աշխատատեղերի վերաբերյալ

Հուլիսին 2017 թ Wall Street Journal pՀիմնադրելով հոդվածը ՝ Ռոբոտները փոխարինում են աշխատողներին, որտեղ գնում եք: Այն նկարագրում էր Walmart խանութներում արդեն աշխատող մարդկային աշխատողներին փոխարինող մի քանի տեխնիկա:

Ի Ամսագիր հոդվածում ներկայացված էր նաև Citi Research- ի աղյուսակ `նվիրված ավտոմատացման աշխատանքին սպառնացող սպառնալիքներին մինչև 2030 թվականը: Արդյունաբերությունները, որոնք սպասվում են նվազագույն վնասով, ներառում են ապահովագրությունն ու ֆինանսները, 54% բարձր ռիսկի ցուցանիշով:

Տեղաբաշխումն ու սննդի ծառայությունները նույնպես հեռու չեն ՝ 86% բարձր ռիսկայնությամբ: Դա կհամարեր մեծ թվով մարդիկ, ովքեր բեռնաթափվել են իրենց աշխատանքից, ինչը վնաս չի պատճառի միայն իրենց կորցրած անհատներին, այլ ընդհանուր տնտեսությանը:

VIAnews- ին տված հարցազրույցում Էնթոնի adorադորը, Նյարդագիտության նախագահ, Քոլդ Սպրինգ Հարբորի լաբորատորիայի կենսաբանության պրոֆեսոր, նախազգուշացրեց, որ «հասարակության համար որոշ հետևանքներ, շատ առումներով, կործանարար կլինեն»:

Դա առաջին հերթին պայմանավորված է նրանով, որ մենք կտեսնենք, որ «տասնյակ միլիոնավոր աշխատատեղեր» անհետանում են ՝ առանց այն բանի հավաստիացման, թե «ինչով են փոխարինվելու, եթե դրանք փոխարինվելու են ինչ-որ բանով»:

Նա շտապեց ավելացնել, որ այստեղ մեղքը բարդում է «հասարակության վրա. դա տեխնոլոգիայի մեղքը չէ »: Անկախ նրանից, թե ով է մեղավոր, վնասն անխուսափելի է թվում:


Դիտեք տեսանյութը: Ինչպես տարբերել հակաուտոպիան - Ալեքս Գենդլեր (Հունվարի 2022).