PRKernel

Доставчик на новини в реално време в България, който информира своите читатели за последните български новини, събития, информация, пътувания, България.

Сега, когато машините са в състояние да учат, могат ли да се измъкнат от ученето?

Сега, когато машините са в състояние да учат, могат ли да се измъкнат от ученето?

Андрей Онофренко | Гети изображения

Използват се фирми от всякакъв вид машинно обучение Да анализираме желанията, неприязъните или лицата на хората. Някои изследователи сега задават различен въпрос: Как можем да накараме машините да забравят?

Нововъзникваща област в компютърните науки се нарича машина амнезия Търсят начини за предизвикване на селективна амнезия при Изкуствен интелект софтуер. Целта е да се премахне всяка следа от определено лице или точка от данни от системата за машинно обучение, без това да повлияе на нейната производителност.

Ако концепцията стане практическа, тя може да даде на хората по -голям контрол над техните данни и стойността, извлечена от тях. Въпреки че потребителите всъщност могат да поискат от някои компании да изтрият лични данни, те обикновено не знаят какви алгоритми са помогнали за тяхната настройка или обучение. Де-обучението може да позволи на човек да отнеме техните данни и способността на компанията да се възползва от тях.

Въпреки че тази идея за изкуствена амнезия е очевидна за всеки, който е оценил това, което са споделили онлайн, тя изисква някои нови прозрения в компютърните науки. Компаниите харчат милиони долари за обучение по алгоритми за машинно обучение, за да разпознават лица или да класират социални постове, защото алгоритмите често могат да решат проблем по -бързо, отколкото само човешките програмисти. Но след като бъде обучена, системата за машинно обучение не може лесно да се промени, или дори да разбере. Традиционният начин да се премахне въздействието на определена точка от данни е да се възстанови системата от нулата – процес, който може да струва скъпо. „Това изследване има за цел да намери общ език“, казва Аарон Рот, професор в Университета на Пенсилвания, който работи върху премахването на машинното обучение. „Можем ли да премахнем пълното въздействие на нечии данни, когато поискат изтриване, но да избегнем пълните разходи за преквалификация от самото начало?“

Работата по премахване на машинното обучение се подхранва отчасти от нарастващия интерес към начините, по които AI може да наруши поверителността. Регулаторите на данни по целия свят отдавна имат правомощията да принудят компаниите да изтрият незаконна информация. Граждани на някои области, като напр Аз И КалифорнияПо -скоро тя има право да изисква от компанията да изтрие данните си, ако е променила позицията си по отношение на това, което е разкрила. Наскоро американските и европейските регулатори заявиха, че понякога собствениците на AI системи трябва да направят крачка напред: да изтрият система, която е била обучена за чувствителни данни.

Миналата година британският регулатор на данни Предупредителни компании Че някои софтуери за машинно обучение могат да бъдат предмет на GDPR права, като например изтриване на данни, тъй като системата за изкуствен интелект може да съдържа лични данни. Изследователите по сигурността показват Алгоритмите понякога могат да бъдат принудени да изтекат чувствителните данни, използвани за създаването им. В началото на тази година Федералната търговска комисия на САЩ Принудително стартиране на разпознаването на лица на Paravision Да изтриете набор от неправилно получени изображения на лицето и алгоритми за машинно обучение, обучени върху тях. Комисарят на Федералната търговска комисия Рохит Чопра приветства новата тактика за прилагане като начин да принуди компанията да наруши бази данни, за да „изземе плодовете на нейната измама“.

Малкото поле на машинно забравяне на научните изследвания се бори с някои от практическите и математическите въпроси, повдигнати от тези организационни промени. Изследователите са показали, че могат да накарат алгоритмите за машинно обучение да забравят при определени условия, но технологията все още не е готова в праймтайма. „Както е обичайно в областта на младежта, има разлика между това, което тази област се стреми да направи, и това, което знаем как да правим сега“, казва Рот.

Предложен е един обещаващ подход през 2019 г. От изследователи от Университета в Торонто и Университета на Уисконсин-Мадисън, това включва разделяне на изходните данни за нов проект за машинно обучение на няколко части. След това всеки се обработва индивидуално, преди резултатите да се комбинират в окончателния модел на машинно обучение. Ако точка от данни трябва да бъде забравена по -късно, само малка част от първоначалните входни данни трябва да бъдат обработени отново. Доказано е, че подходът работи върху данни за онлайн поръчки и а Колекция от над милион снимки.

Рут и сътрудници от Пен, Харвард и Станфорд Наскоро Той демонстрира недостатък в този подход, показвайки, че системата за отучаване ще се срине, ако направените заявки за изтриване са дошли в определена последователност, било то по случайност или от злонамерен участник. Те също така показаха как проблемът може да бъде смекчен.

Гаутам Камат, професор в Университета на Ватерлоо, който също работи по де-обучение, казва, че проблемът, който проектът е открил и отстранил, е пример за многото останали отворени въпроси за това как да накараме машината да научи нищо повече от любопитство в лабораторията . Това беше негова собствена изследователска група проучване Степента, в която точността на системата се намалява, като се премахне обучението за множество точки от данни подред.

Kamath също се интересува от намирането на начини, по които една компания може да докаже – или регулаторът може да провери – че системата наистина е забравила това, което не е трябвало да учи. „Изглежда малко пресилено, но може би в крайна сметка те ще имат одитори за такива неща“, казва той.

Регулаторните причини за изследване на възможността за машинно обучение за отучаване вероятно ще нараснат, тъй като FTC и други разглеждат по-отблизо силата на алгоритмите. Робин Бинс, професор в Оксфордския университет, който изучава защитата на данните, казва, че идеята, че хората трябва да имат думата за съдбата и плодовете на техните данни, нарасна през последните години както в САЩ, така и в Европа.

Ще бъде необходима гениална технологична работа, преди технологичните компании да могат действително да приложат премахването на обучението като начин да се даде на хората по-голям контрол върху изчислителната съдба на техните данни. Дотогава технологията може да не се промени много по отношение на рисковете за поверителността за епохата на изкуствения интелект.

различна поверителност, което е умна техника за определяне на математически граници за това, което системата може да изтече от човек, и предоставя полезно сравнение. Тази технология е надмината от Apple, Google и Microsoft, но се използва сравнително рядко и рисковете за поверителността са все още изобилни.

Въпреки че може да бъде наистина полезно, казва Бейнс, „в други случаи това е по -скоро нещо, което една компания прави, за да покаже, че прави иновации.“ Той подозира, че отмяната на машинното обучение може да бъде същата, което е по -скоро доказателство за техническа проницателност, отколкото голяма промяна в защитата на данните. Дори ако машините се научат да забравят, потребителите ще трябва да помнят да внимават с кого споделят данни.

Тази история се появи първоначално wired.com.