Общ

MIT задълбочи етиката на програмирането на автономни превозни средства в глобалното проучване


Докато напълно автономните коли, удрящи градските улици, се приближават до реалността, въпроси за етиката на програмиране на автономни машини се появяват отново и отново. Ново проучване на MIT показва, че има някои глобални тенденции относно етиката на автономните превозни средства, както и някои интересни местни разлики.

В проучването са участвали повече от 2 милиона онлайн участници от над 200 страни, които всички са взели по класическия „проблем с количките“. Проблемът с количката е сценарий, който описва избягала количка, насочена към група хора и вие имате силата да натиснете превключвател, за да отклоните количката, така че тя да се сблъска само с един човек. Какво би направил?

Проблем с количката, преосмислен за автономни превозни средства

В случай на автономни превозни средства, въпросът е формулиран, за да се разгледа дали колата трябва да се отклони към малък брой странични наблюдатели или по-голяма група, както и други свързани възможности.

„Проучването основно се опитва да разбере видовете морални решения, към които може да се наложи да се прибегне автомобил без шофьор“, казва Едмънд Авад, постдок в MIT Media Lab и водещ автор на нова статия, очертаваща резултатите от проекта. „Все още не знаем как трябва да го направят.“

И все пак Авад добавя: „Открихме, че има три елемента, които хората изглежда одобряват най-много.“ Почти универсално проучването установи, че хората предпочитат да щадят живота на хората пред животните, живота на мнозина над малко и живота на младите над старите.

„Основните предпочитания бяха в някаква степен универсално договорени“, отбелязва Авад. „Но степента, в която те са съгласни с това или не, варира в различните групи или държави.“

Пристрастното програмиране трябва да се приема сериозно

Проблемът с предубеденото програмиране се появява отново и отново, тъй като на алгоритмите е дадена отговорност за всичко - от чуруликане до наемане. Например, Amazon се отказа от програма с изкуствен интелект, която използваше за наемане на нови служители, тъй като установи, че програмата благоприятства мъжете за технически работни места.

Програмата, която прочете хиляди и хиляди автобиографии, се беше научила да предпочита мъжете пред жените, вероятно защото виждаше повече автобиографии от мъже, които отговаряха на критериите, не защото автобиографиите на жените не бяха добри, просто имаше по-малко от тях. В подобна история Microsoft трябваше да изтегли своя чат-бот Tay от Twitter, след като започна да туитва расистки и фанатични забележки само 24 часа след пускането му.

Описано като експеримент в „разговорно разбиране“, от Тей се очакваше да стане по-умна и по-бърбореща, колкото повече разговори се ангажираха. Потребителите на Twitter обаче започнаха да пишат мръсни неща в Тей и добре, Тей, тъй като роботите се учат от видяното и започват да изпращат тези чувства отново в света.

Нито една от тези истории не изисква да звънят алармени звънци, а по-скоро съзнателно разбиране на въздействието на програмирането и че трябва да се възприеме широкообхватен подход към всички технологии за вземане на решения.


Гледай видеото: 1000+ Common Arabic Words with Pronunciation Арабски думи (Юли 2021).