Общ

Пристрастието в изкуствения интелект изисква дисциплина и състрадание


Пристрастието в AI е критичен въпрос, който нараства през последните 18 месеца. Екстремните примери имат огромно въздействие, като например сексисткия бот за наемане на Amazon и опитите на AI Twitter на Microsoft за изкуствен интелект.

Панелът, озаглавен „Решаване на пристрастия в изкуствения интелект“ на CES 2019, избегна тези страшни заглавия и се опита да проведе обмислена дискусия за това как да се направи значима промяна в бързо разрастващия се сектор.

Подобно на много от панелите досега дискусията беше ограничена до относително строга линия около регулаторния контрол.

Представител на панела както на промишлеността, така и на правителството

Майкъл Хейс, старши мениджър за държавни въпроси в Асоциацията на потребителските технологии, модерира беседата между членовете на панела Остин Карсън от Nvidia, Бари Уилямс, вицепрезидент по правни, политически и бизнес въпроси във всички костенурки и Sunmin Kim съветник по технологична политика от офиса на сенатора Брайън Шац.

Уилямс стартира производството, като говори за начина, по който пристрастието може да се разглежда от много различни ъгли. Тя обясни, че лично за нея тя вижда пристрастия по различен начин в зависимост от това дали се държи като майка на трите си деца, като се идентифицира като чернокожа жена или гледа през обектива на работата си като адвокат.

Това е ключов момент, който трябва да се отбележи и е една от причините, поради които всъщност идентифицирането на пристрастия може да бъде половината от битката. Панелът бързо отбеляза, че за разлика от други части на технологичната индустрия пристрастията в AI не идват от лоши участници, а от лоша информация.

Лоши данни, не лоши актьори

Нито един от панелите не предполага, че пристрастието се дължи на злонамерено инженерство, а е по-скоро комбинация от много фактори, свързани както с входа, така и с изхода. Федералната комисия по търговията публикува доклад през 2016 г. относно големи данни с въпрос дали е приобщаващ или изключителен.

Докладът завършва, като призовава потребителите на големи данни да преценят дали техният набор от данни, използван за създаване на алгоритми, е представителен или представлява само определен сегмент.

На второ място, това провокира създателите на AI технологии да попитат какво прави алгоритъмът, как се извлича това? Базира ли своето решение на факторите, свързани с умишлените му данни или други модели, които би могъл да идентифицира, които неволно създават пристрастия?

По отношение на регламентите комисията се съгласи, че правителството може да направи повече, но наличието на експертни познания в бранша в процеса на вземане на решения е от ключово значение за напредъка.

Друг въпрос, повдигнат и обсъден от панела, беше необходимостта от разнообразни екипи в областта на технологиите като цяло. Колкото по-разнообразни инженерни и програмни екипи са, толкова по-вероятно е пристрастията да бъдат забелязани и да се справят по-рано, вместо да се задържат и развиват с времето.

Различните екипи означават, че пристрастията е по-вероятно да бъдат взети на сериозно.

Ключ за разнообразието при справяне с пристрастията

Решението за увеличеното разнообразие беше разгледано в предишен панел, а предизвикателствата за увеличаване на броя на жените и хората с цветни технологии продължават да кипят в CES.

Друг очарователен момент, повдигнат от панела, беше идеята, че AI всъщност може да помогне за откриване и преодоляване на пристрастия. Технически не трябва да има по-добра машина, която да търси поведение на пристрастия от интелигентния AI.

В заключение Хейс поздрави комисията за присъствието и за адресирането на трудните идеи, свързани с пристрастията в AI. Той продължи, че първата стъпка за преодоляване на пристрастието е да се разпознае това, което беше направено на панела днес.


Гледай видеото: Natalie Portman and Yuval Noah Harari in Conversation (Август 2021).