Новата федерална директива на Канада превръща етичния AI в национален проблем

В идеалната пресечна точка на технологиите и държавната служба, всеки правителствен процес ще бъде автоматизиран, който ще рационализира ползите, резултатите и приложенията за всеки гражданин в страна с цифрова технология.

С този подход идва значителен слой от протокол, който е необходим, за да се гарантира, че гражданите се чувстват овластени по отношение на процесите на вземане на решения и как тяхното правителство се справя с нуждите от цифрова гледна точка. В момента Канада е водеща в света в областта на изкуствения интелект, благодарение до голяма степен на огромни държавни инвестиции като Панканадска стратегия за изкуствен интелект . Разрастващата се сфера е широко разпространена в момента – едва ли има индустрия, която да не е разрушила, от добив до правна помощ. Правителството не е по-различно. Всъщност правителството може да бъде един от най-очевидните избори за това къде автоматизираните процеси на вземане на решения могат да спестят време и пари.



Дилемата, която произтича от въвеждането на AI от правителството, е засилване на проблемите, свързани с това как всяка организация възприема процъфтяващата технология: Как гарантирате, че тази AI платформа или услуга справедливо и адекватно отговаря на нуждите на своите клиенти? Компания като Facebook използва AI по редица причини, като насочване на реклами или разпознаване на лица в снимки. Разбира се, техните алгоритми могат да доведат до ужасяващо точни реклами, които се появяват в новинарската лента, но етиката на техните решения за машинно обучение наистина засяга само поверителността на даден човек – или липсата на такава през последните години.

canada_ai 5

Правителството, от друга страна, трябва да вземе предвид огромен набор от детайли, когато започва да приема нови технологии като AI. Правителствата се занимават с поверителността, разбира се, но също така се занимават със здравеопазване, имиграция, престъпна дейност и др. Така че проблемът за тях се върти по-малко около Какъв вид AI решение да използваме? и още около Кои не трябва да използваме?



Платформите за изкуствен интелект, които правителството не може да докосне, са тези, които предлагат малка или никаква прозрачност и са изпълнени с пристрастия и несигурност. Ако решение от правителството се вземе чрез автоматизиран процес, гражданинът има право да разбере как е възникнало това решение. Не може да има защита на IP и строго охраняван изходен код. Например, ако на кандидат за потенциално наказателно помилване бъде отказано помилването от AI система, обучена с исторически данни, този кандидат заслужава да разбере точно защо може да е бил отхвърлен.

Решението на канадското правителство на този проблем е Директивата за автоматизирано вземане на решения, публикувана по-рано тази седмица. Намеква се за в края на 2018г от тогавашния министър на цифровото правителство Скот Брайсън, това е ръководство, описващо как правителството ще използва AI за насочване на решения в рамките на няколко отдела. В основата на директивата е Алгоритмичната оценка на въздействието (AIA), инструмент, който определя точно какъв вид човешка намеса, партньорска проверка, наблюдение и планиране на извънредни ситуации ще изисква инструмент за изкуствен интелект, създаден да обслужва гражданите.

Машинно ръководство за етика



Пътят на канадското правителство да внедри етични практики в техните процеси за вземане на решения за ИИ започна преди около 14 месеца, когато Майкъл Карлин, ръководител на екипа за политика на данни в Министерството на националната отбрана, забеляза сляпа точка в начина, по който правителството обработва техните данни. Беше сформиран екип за разработване на рамка и тя се разрасна оттам, работейки изцяло на открито чрез платформи като GitHub и получавайки обратна връзка от частни компании, други правителства и институции след средно образование като MIT и Oxford.

Когато този екип, който сега се ръководи от главния информационен директор на Канада Алекс Бенай, се огледа наоколо към други правителства, те разбраха, че няма инструмент, който да измери точно въздействието, което един автоматизиран процес може да има върху гражданите, за които е създаден, за да обслужва. Очевидно съществуват присъщи рискове в зависимост от това как AI работи със своите клиенти – някои от тях са евтини, докато други са изключително важни.

Ако чатбот ще ви каже, че пързалката е отворена и вие се появите, а тя не е отворена и че чатботът е сгрешил, това е нисък риск, обяснява Бенай. Но ако ще автоматизирате решенията за имиграция, това е възможно най-висок риск.



Новоиздадената директива определя количествено тези рискове и предлага AIA като инструмент за компаниите, изграждащи AI правителствени решения, който определя точно от какъв вид намеса може да се нуждаят. Компаниите имат достъп до AIA онлайн и попълват анкета с над 60 въпроса за своята платформа и след като приключат, те ще бъдат върнати с ниво на въздействие. Анкетата задава въпроси като Дали системата позволява отмяна на човешките решения? и Има ли процес, който да документира как проблемите с качеството на данните са били разрешени по време на процеса на проектиране?

Още два примерни въпроса от AIA.

Нивото на въздействие на AI платформа, договорена от правителството, се класира от едно до четвърто. Колкото по-висок е рангът, толкова по-голямо влияние има автоматизираният процес на вземане на решения върху правата, здравето и икономическите интереси на хората и общностите. Процесите, които вземат решения, включващи престъпна дейност или способността на дадено лице да напусне и влезе в страната, например, веднага ще бъдат оценени с ниво на въздействие от три или четири.

При определени нива на въздействие трябва да има намеса в няколко форми. Ако автоматизиран процес на вземане на решение получи оценка на въздействието от четвърто ниво, той ще изисква две независими партньорски проверки, публично известие на ясен език, безопасна човешка намеса и повтарящи се курсове за обучение за системата.

Оценката на AIA наистина е инструмент, който показва вашето ниво на сериозност и как трябва да третирате проблема, казва Бенай. Вероятно нямате нужда от партньорска проверка за този проблем с пързалката, но определено ще имате нужда от група за партньорска проверка, преди да автоматизирате границите или социалните услуги.

Въпреки факта, че тази директива може да накара да изглежда, че правителството прави всичко възможно, за да се подготви за атаката на технологични прекъсвания, всъщност е точно обратното. С толкова нюансирана тема като етиката и AI, основният приоритет на правителството е прозрачността и отчетността.

Това, което се опитваме да направим с AIA, е да гарантираме, че хората остават под контрол, за да могат да обжалват решенията.

Това, което не искаме, е алгоритъм за черна кутия от компания, която не иска да ни каже как този алгоритъм е взел решението, казва Бенай. Това не е нещо, на което можем да се придържаме от подхода за обслужване, при който хората трябва да прибягват, ако услугата, която са получили, е несправедлива.

Самата AIA е голямо постижение не само за канадското правителство, но и за правителствата по целия свят. Това е първият инструмент от този вид и беше приет от Мексико преди четири месеца, въпреки че дори не беше официално пуснат до тази седмица. Бенай и екипът му водят преговори с няколко членове на D9 включително Португалия и Обединеното кралство, тъй като се стремят да приложат инструмента.

Колкото и да са важни директивата и AIA за определяне на темпото за прилагане на етиката, тъй като те са свързани с правителствените практики, разпоредбите може да са спорна точка за някои от предпочитаните партньори на Канада за изкуствен интелект, особено корпоративни фирми като Amazon Web Services, Microsoft , и други.

Извличане на проблема

За да може една компания да предостави на правителството автоматизиран процес на вземане на решения, новата директива принуждава ръката на компанията да предостави своя изходен код на правителството. Има смисъл на теория, тъй като всичко се основава на концепцията за обяснимост, както го казва Бенай.

Трябва да покажем на гражданите как е взето решение чрез алгоритъм, казва той. Ако стигнем до момент, в който например има съдебно дело, включващо това автоматизирано решение, може да се наложи да освободим алгоритъма.

Тази спорна точка е може би истинското сърце на етичната дискусия за ИИ. Трябва да има баланс между прозрачните решения и защитата на интелектуалната собственост. Ако една компания с AI иска правителството като клиент, те трябва да осъзнаят, че прозрачността се цени преди всичко. Този вид мислене може да отблъсне някои изпълнители.

Помислете за това така: на теория, ако Amazon трябваше да предостави AI решение на канадското правителство, единственото нещо, което разделя всеки гражданин от достъпа до целия изходен код на Amazon – поне за този конкретен проект – е заявката за свобода на информация. В ерата на строго охранявани решения с бели етикети и назаем код, възможността за лесен достъп до информацията от източника е труден проблем за дисекция. Тези достъпи ще бъдат наблюдавани за всеки отделен случай, за да се пазят търговските тайни или търговската поверителна информация на доставчик от трета страна, но дори и това ще подлежи на тълкуване. Тези, които имат достъп до този изходен код, все още са защитени от авторски права, но кодът може да бъде манипулиран достатъчно, за да го замъгли и да създаде главоболия за оригиналните издатели.

ElementAI_Toronto_Office_Techvibes-5

Офисите в Торонто на Element AI, предпочитан доставчик на AI за правителството на Канада.

Това е деликатна дискусия, казва Бенай. Знам, че IP е кръвната линия на приходите за тези компании. Но ако ще правите бизнес с правителството и имате пряко взаимодействие с гражданите, вие сте добавили отговорност като компания от частния сектор. Това е балансът, който трябва да намерим. Не съм сигурен, че го намерихме. Може би го направихме, но ще продължим да работим прозрачно.

Има само няколко начина, по които изходният код ще бъде защитен от пускане, а те също се случват да са свързани с правителствените служби, които тази нова директива за изкуствен интелект няма да повлияе. Всички представители на парламента са защитени, което повече или по-малко обхваща всичко в сферата на сигурността и конкурентното разузнаване. В някакъв момент в бъдеще алгоритмите и AI ще бъдат използвани за проследяване на незаконни дейности и по очевидни причини правителството не може да разкрие публично изходния код на тези решения.

Ако ще правите бизнес с правителството и имате пряко взаимодействие с гражданите, вие сте добавили отговорност като компания от частния сектор.

Бенай признава, че всичко около тази директива може да не е в окончателния си вид. Тъй като екосистемата, включваща AI, се променя толкова бързо, правителството се ангажира да актуализира директивата на всеки шест месеца, а правителството също така е в процес на създаване на консултативен съвет за AI, за да гарантира, че бъдещите решения се вземат отговорно.

Обикновено бихме имали пет, шест, дори седем години, за да преработим нещо подобно, казва Бенай. Трябваше да работим през това в продължение на месеци. Това е много нова форма на политика и перспектива за управление, за да се справите с проблемите толкова бързо. Но вие виждате отговора. За нашия ден на ИИ миналата година имахме 125 души в стаята. За деня на ИИ тази година имахме 1000.

Създатели на тенденции

През следващите няколко години няма да има недостиг на дискусии около етиката и AI. Истинският въпрос ще се върти около това, когато тази дискусия се превърне от превантивни действия за бъдещето на автоматизирани решения към отбранителни ответни удари, опитвайки се да защитят гражданите и икономиката от вече установени решения за изкуствен интелект. Инструмент като AIA все още не е защитен механизъм, но е толкова близо до този, който някога е бил разработен.

Има твърде много неща, които не знаем, казва Бенай. Не искате да стигнете до положение, в което ние предаваме контрола върху решенията на машините, без да знаем всичко за тях. Страшното за нас по света е, че много правителства изглежда не осъзнават нивото на автоматизация на собствените си ценности, което те излагат, когато се занимават с потенциални доставчици, които имат код на черна кутия или IP.

Канадааа

Има поне малко добри новини за носене. Всеки член на D9 обмисля дали да приложи AIA на Канада и Мексико вече го направи. Целта е възможно най-много нации да го използват и да развият колективно мозъчно доверие зад директивата.

Ако успеем да накараме прилично количество държави да използват този инструмент и да го развиват и подхранваме, ние поставяме правителството в по-добра позиция да се справи с автоматизацията, поверителността и всички тези проблеми, които виждате, казва Бенай. Много е трудно да си страна със среден размер в света в момента. С този инструмент на открито, други страни могат да се присъединят към него и да започнат да го използват. Това е първо в света в подхода на правителството в публичния сектор към ИИ.

Това е може би най-прозрачната ни част от политиката, която някога сме разработвали за административни политики в Секретариата на Съвета на финансите.

На по-местно ниво, правителството на Канада моли всички квалифицирани доставчици на AI да дадат публично обещание, че ще работят само с отдели, които са завършили AIA. Няколко компании вече са поели обещанието, включително MindBridge AI, ThinkData Works и CognitiveScale, а екипът на Benay ще изпрати официално писма в рамките на няколко седмици.

Публичната интроспекция по отношение на етиката и ИИ не е нищо ново. В средата на 2018 г. група от групи за човешки права и технологии публикува Декларацията от Торонто , като молим всички, които участват в процесите на изкуствен интелект, да запазят фокуса си върху това как тези технологии ще повлияят на отделните човешки същества и човешките права, защото в света на системите за машинно обучение кой ще носи отговорност за нарушаване на човешките права? През 2017 г. канадските експерти по изкуствен интелект подкрепиха a забрана на роботите убийци също така, което по същество е най-простият начин за подкрепа на етичния ИИ. Франция наскоро се присъедини към Канада публично се ангажират към етичното разбиране на ИИ. И накрая, някои от най-големите канадски AI фирми, вкл Integrate.ai и AI елемент непрекъснато и гласно подкрепят пресечната точка на етиката и ИИ.

Не знам дали всеки разбира колко голям проблем е етичната страна на AI, когато става въпрос за разбиране на справедливостта и пристрастието, каза за Techvibes главният изпълнителен директор и основател на Integrate.ai Стив Ървайн по-рано тази година. Не че роботите ще превземат света. Вместо това ще се използват набори от данни от исторически данни, които много компании са събрали, където ще има присъщо пристрастие от миналото. Без да се адаптираме към това, рискуваме да увековечим стереотипите, от които се опитваме да се отдалечим от десетилетия.

Публикуването на тази директива от Канада е важна стъпка към нормализирането на това колко дълбоко трябва да бъдат вкоренени етиката и ИИ. Тъй като огромни корпорации като Facebook и Google са постоянно под контрол по отношение на начина, по който се справят с поверителността и данните – като в същото време водят създаването и разпространението на някои от най-въздействащите технологии в света – важно е непрекъснато да обмисляме как новите постижения в технологиите оказват влияние върху живота на обикновения гражданин.

Виждате много неща във вестниците около мегакорпорациите и как те избират да правят или не поверителността, казва Бенай. Не че се очертават бойни линии около ценностите, но има дълбоки и трудни разговори около тези неща и всичко, което се опитваме да направим, е да се уверим, че сме добре позиционирани на национално ниво, за да сме сигурни, че сме способни провеждане на тези разговори.

Kategori: Новини