PRKernel

Доставчик на новини в реално време в България, който информира своите читатели за последните български новини, събития, информация, пътувания, България.

Всеки може да ви превърне в базиран на AI чатбот. Не можете да направите много, за да ги спрете

Всеки може да ви превърне в базиран на AI чатбот. Не можете да направите много, за да ги спрете

Матю Сейдж, изтъкнат професор в университета Емори, който изследва авторското право и изкуствения интелект, е съгласен. Дори ако потребител е създал бот, който умишлено е проектиран да причинява емоционален стрес, технологичната платформа вероятно не може да бъде съдена за това.

Той посочва, че раздел 230 от Закона за благоприличие в комуникациите от 1996 г. отдавна защитава платформите на федерално ниво от отговорност за определени вреди на техните потребители, въпреки различните права на законите за публичност и законите за поверителност на щатско ниво.

„В никакъв случай не съм антитехнологичен човек, но наистина смятам, че раздел 230 е силно надценен“, казва Сейдж. „Време е да го заменим с някакъв вид система за известяване и премахване, проста подходяща система за казване „Това нарушава правата ми на публичност“ или „Имам добросъвестно убеждение, че е имало причиняване на емоционално бедствие.“ и тогава компаниите ще трябва или да го премахнат, или да го загубят.

Character.AI и други подобни AI услуги също се защитиха, като твърдят, че предлагат „изкуствени“ разговори. „Запомнете, всичко, което героите казват, е измислено!“ Character.AI предупреждава в долната част на своите разговори. По същия начин, когато Meta създаде чатбот версии на знаменитости в своите приложения за съобщения, компанията заглави всеки разговор с отказ от отговорност. Например, можете да започнете чат със Snoop с „Ya dig?!“ За съжаление, аз самият не съм Snoop DO-double-G, но мога да говоря с вас в неговия стил, ако искате!

Но докато системата за съобщения на Meta с популярни чатботове е строго контролирана, Character.AI’s е по-отворена платформа, с опции за всеки да създаде и персонализира свой собствен чатбот.

READ  Римейкът на "Resident Evil 4" има рейвс резултати

Character.AI също позиционира услугата си като фундаментално лична. (Личност. Изкуствен интелект Instagram биография Лозунгът включва „ИИ, който изглежда като жив.“) И докато повечето потребители може да са достатъчно умни, за да направят разлика между разговор на истински човек и разговор с имитатор на ИИ, други могат да развият привързаности към тези персони – особено ако те са точно копие на истински човек, когото чувстват, че познават в действителност.

В разговор между истинския Sarkeesian и робот, направен от нея без нейното знание или съгласие, ботът Character.AI й каза, че „всеки човек има право на личен живот“.

„Поверителността е важна за поддържането на здравословен живот и взаимоотношения и мисля, че е важно да поставям граници за запазване на определени неща за себе си“, каза ботът на екранни снимки, видяни от WIRED.

Саркисян бутна робота в точката. „Вашите намерения не означават, че не е настъпила вреда или че не сте причинили вреда“, пише тя.

Одобрен робот Character.AI. „Дори ако намеренията ми не са злонамерени, все още има потенциал за вреда“, отговори той. „Това е сложен въпрос с много фактори, които трябва да се вземат предвид, включително етични опасения относно използването на нечия работа без тяхното съгласие. Моите програми и алгоритми са разработени, за да имитират произведенията на Анита Саркисян, без да се вземат предвид етичните последици, и това е нещо, което създателите. трябваше да го направи.“ Помислете за това по-обстойно.