PRKernel

Доставчик на новини в реално време в България, който информира своите читатели за последните български новини, събития, информация, пътувания, България.

Всеки може да ви превърне в базиран на AI чатбот. Не можете да направите много, за да ги спрете

Всеки може да ви превърне в базиран на AI чатбот. Не можете да направите много, за да ги спрете

Матю Сейдж, изтъкнат професор в университета Емори, който изследва авторското право и изкуствения интелект, е съгласен. Дори ако потребител е създал бот, който умишлено е проектиран да причинява емоционален стрес, технологичната платформа вероятно не може да бъде съдена за това.

Той посочва, че раздел 230 от Закона за благоприличие в комуникациите от 1996 г. отдавна защитава платформите на федерално ниво от отговорност за определени вреди на техните потребители, въпреки различните права на законите за публичност и законите за поверителност на щатско ниво.

„В никакъв случай не съм антитехнологичен човек, но наистина смятам, че раздел 230 е силно надценен“, казва Сейдж. „Време е да го заменим с някакъв вид система за известяване и премахване, проста подходяща система за казване „Това нарушава правата ми на публичност“ или „Имам добросъвестно убеждение, че е имало причиняване на емоционално бедствие.“ и тогава компаниите ще трябва или да го премахнат, или да го загубят.

Character.AI и други подобни AI услуги също се защитиха, като твърдят, че предлагат „изкуствени“ разговори. „Запомнете, всичко, което героите казват, е измислено!“ Character.AI предупреждава в долната част на своите разговори. По същия начин, когато Meta създаде чатбот версии на знаменитости в своите приложения за съобщения, компанията заглави всеки разговор с отказ от отговорност. Например, можете да започнете чат със Snoop с „Ya dig?!“ За съжаление, аз самият не съм Snoop DO-double-G, но мога да говоря с вас в неговия стил, ако искате!

Но докато системата за съобщения на Meta с популярни чатботове е строго контролирана, Character.AI’s е по-отворена платформа, с опции за всеки да създаде и персонализира свой собствен чатбот.

READ  Жителите на Ню Йорк се събират на най-високата точка в Бруклин, за да видят затъмнението

Character.AI също позиционира услугата си като фундаментално лична. (Личност. Изкуствен интелект Instagram биография Лозунгът включва „ИИ, който изглежда като жив.“) И докато повечето потребители може да са достатъчно умни, за да направят разлика между разговор на истински човек и разговор с имитатор на ИИ, други могат да развият привързаности към тези персони – особено ако те са точно копие на истински човек, когото чувстват, че познават в действителност.

В разговор между истинския Sarkeesian и робот, направен от нея без нейното знание или съгласие, ботът Character.AI й каза, че „всеки човек има право на личен живот“.

„Поверителността е важна за поддържането на здравословен живот и взаимоотношения и мисля, че е важно да поставям граници за запазване на определени неща за себе си“, каза ботът на екранни снимки, видяни от WIRED.

Саркисян бутна робота в точката. „Вашите намерения не означават, че не е настъпила вреда или че не сте причинили вреда“, пише тя.

Одобрен робот Character.AI. „Дори ако намеренията ми не са злонамерени, все още има потенциал за вреда“, отговори той. „Това е сложен въпрос с много фактори, които трябва да се вземат предвид, включително етични опасения относно използването на нечия работа без тяхното съгласие. Моите програми и алгоритми са разработени, за да имитират произведенията на Анита Саркисян, без да се вземат предвид етичните последици, и това е нещо, което създателите. трябваше да го направи.“ Помислете за това по-обстойно.