PRKernel

Доставчик на новини в реално време в България, който информира своите читатели за последните български новини, събития, информация, пътувания, България.

Проблемът с „халюцинациите“ на ChatGPT е изправен пред друга жалба за поверителност в ЕС

Проблемът с „халюцинациите“ на ChatGPT е изправен пред друга жалба за поверителност в ЕС

Кредити за изображения: Оливие Даулиери/АФП/Гети изображения

OpenAI е изправен пред още една жалба за поверителност в Европейския съюз. Това, което беше изпратено от организация с нестопанска цел, занимаваща се с правата за поверителност noyb От името на индивидуален жалбоподател, той се прицелва в неспособността на задвижвания от изкуствен интелект чатбот ChatGPT да коригира дезинформацията, която генерира за отделни лица.

Тенденцията на инструментите на GenAI да произвеждат невярна информация е добре документирана. Но също така поставя технологията в сблъсък с Общия регламент за защита на данните (GDPR) на блока, който урежда как се обработват личните данни на регионалните потребители.

Санкциите за неспазване на GDPR могат да достигнат до 4% от общите глобални годишни продажби. По-важното за богат на ресурси гигант като OpenAI: регулаторите за защита на данните могат да наредят промени в начина, по който се обработва информацията, така че въвеждането на GDPR може да промени начина, по който генеративните инструменти за ИИ работят в ЕС.

OpenAI вече беше принуден да направи някои промени след ранна намеса от страна на италианския орган за защита на данните, който за кратко принуди ChatGPT да затвори локално през 2023 г.

Сега noyb подаде последната си жалба относно GDPR срещу ChatGPT до австрийския орган за защита на данните от името на неназован жалбоподател (описан като „публична личност“), който установи, че техният чатбот, работещ с изкуствен интелект, е извел неправилна дата на раждане за тях.

Съгласно Общия регламент за защита на данните хората в ЕС имат набор от права, свързани с информацията за тях, включително правото на коригиране на неточни данни. noyb твърди, че OpenAI не успява да изпълни това задължение по отношение на изхода на своя chatbot. Тя каза, че компанията е отхвърлила искането на жалбоподателя да коригира неправилната дата на раждане, считайки, че е технически невъзможно да я коригира.

READ  Китай приема нов закон за поверителност на личните данни, който ще влезе в сила от 1 ноември

Вместо това предлага филтриране или блокиране на данни въз основа на определени подкани, като например името на жалбоподателя.

OpenAI политика за поверителност В него се посочва, че потребителите, които забележат, че техният AI chatbot е генерирал „неточна информация за вас“, могат да подадат „заявка за корекция“ чрез Privacy.openai.com Или чрез имейл до [email protected]. Той обаче предупреждава тази линия с предупреждението: „Поради техническата сложност на начина, по който работят нашите модели, може да не сме в състояние да коригираме неточностите във всеки случай.“

В този случай OpenAI предлага на потребителите да поискат личната им информация да бъде изцяло премахната от изхода на ChatGPT – като попълнят формуляр Уеб формуляр.

Проблемът за AI гиганта е, че правата му по GDPR не са избирателни. Хората в Европа имат право да поискат корекция. Те също имат право да поискат данните им да бъдат изтрити. Но, както посочва Noib, OpenAI няма правото да избира нито едно от тези налични права.

Други елементи на жалбата се фокусират върху опасенията за прозрачността на GDPR, като Noib твърди, че OpenAI не е в състояние да идентифицира източника на данните, които генерира за физически лица, нито данните, които chatbot съхранява за хората.

Това е важно, тъй като Регламентът отново дава право на лицата да изискват такава информация чрез подаване на т.нар. Заявка за достъп на субект (SAR). OpenAI обаче не отговори адекватно на SAR на жалбоподателя и не успя да разкрие никаква информация относно обработваните данни, техните източници или получателите.

Коментирайки жалбата в изявление, Maartje de Graaf, адвокат по защита на данните в noyb, каза: „Изфабрикуването на невярна информация само по себе си е голям проблем. Но когато става въпрос за невярна информация за отделни лица, може да има сериозни последствия. Ясно е, че компаниите в момента не могат да накарат чатботове като ChatGPT да спазват законодателството на ЕС, когато обработват данни, свързани с физически лица. Ако една система не може да даде точни и прозрачни резултати, тя не може да се използва за генериране на данни за лица. Технологията трябва да следва законовите изисквания, а не обратното.

Компанията заяви, че иска от австрийското DPA да разследва жалбата относно обработката на данни от OpenAI, както и да наложи глоба, за да гарантира бъдещо съответствие. Но тя добави, че е „вероятно“ въпросът да бъде решен чрез сътрудничество с Европейския съюз.

READ  Банковата комисия на Ню Йорк гласува да спре депозитите на града в Capital One

OpenAI е изправен пред много подобно оплакване в Полша. Миналия септември местният орган за защита на данните започна разследване на ChatGPT след жалба от изследовател на поверителността и сигурността, който също беше установено, че не може да коригира неправилна информация за него от OpenAI. Тази жалба също така обвинява AI гиганта в неспазване на изискванията за прозрачност, посочени в регламента.

Междувременно италианският орган за защита на данните все още провежда открито разследване на ChatGPT. През януари той издаде проекторешение, като тогава каза, че смята, че OpenAI е нарушил GDPR по няколко начина, включително във връзка със склонността на чатбота да произвежда подвеждаща информация за хората. Констатациите се отнасят и до други съществени въпроси, като например законността на лечението.

Италианските власти дадоха на OpenAI един месец да отговори на констатациите си. Окончателното решение все още се чака.

Сега, с поредната жалба относно GDPR, пусната в неговия чатбот, рискът OpenAI да се сблъска с каскада от прилагане на GDPR в различни държави-членки се увеличи.

Миналата есен компанията отвори регионален офис в Дъблин – в ход, който изглежда е насочен към намаляване на регулаторните рискове чрез отклоняване на жалби за поверителност от Ирландската комисия за защита на данните, благодарение на механизъм в GDPR, насочен към опростяване на трансграничния надзор на оплаквания. Като ги насочите към орган на една държава-членка, където компанията е „основно предприятие“.