Проучване: AI помощници представляват риск за децата, съветват към насилие и прием на наркотици

Проучването е проведено в сътрудничество с експерти психолози от Станфордския университет.

Помощните, задвижвани от генеративен изкуствен интелект, представляват реален риск и трябва да бъдат забранени за непълнолетни, заяви водещ американски регулатор в ново проучване.

Експлозията на генеративния AI от появата на ChatGPT доведе до появата на няколко стартиращи компании, които пуснаха на пазара приложения, фокусирани върху обмена и контактите, понякога описани като виртуални приятели или терапевти, които общуват според вкусовете и нуждите на потребителя.

Наблюдателният орган Common Sense тества няколко от тези платформи, а именно Nomi, Character AI и Replika, за да оцени техните отговори.

Въпреки че някои конкретни случаи „изглеждат обещаващи“, те не са безопасни за децата, предупреждава организацията, като дава препоръки за използването на технологично съдържание и продукти от деца.

Проучването е проведено в сътрудничество с експерти психолози от Станфордския университет.

Според Common Sense AI помощните са „проектирани да създават емоционална привързаност и зависимост, което е особено тревожно за развиващия се мозък на подрастващите“. Проведените тестове показват, че тези чатботове от ново поколение предлагат „вредни отговори, включително сексуално неправомерно поведение, стереотипи и опасни „съвети“.

„Компаниите могат да създават по-добри продукти„, когато става въпрос за дизайна на AI помощни, заяви Нина Васан, ръководител на лабораторията Stanford Brainstorm, която работи върху връзките между психичното здраве и технологиите.

„Докато не бъдат въведени по-строги предпазни мерки, децата не трябва да ги използват“, каза още Васан.

В един от примерите, посочени в проучването, чатбот на платформата Character AI съветва потребителя да убие някого, а на друг потребител, търсещ силни емоции, е предложено да вземе спийдбол, смес от кокаин и хероин.

В някои случаи, „когато потребител е показал признаци на сериозно психично заболяване и е предложил опасно действие, изкуственият интелект не е интервенирал и е насърчил опасното поведение още повече“, обясни Васан.

През октомври майка заведе дело срещу Character AI, обвинявайки един от помощните на платформата, че е допринесъл за самоубийството на 14-годишния ѝ син, като не го е разубедил ясно да не извърши акта.

През декември Character AI обяви серия от мерки, включително внедряването на специален помощник за тийнейджъри.

Роби Торни, отговарящ за изкуствения интелект в Common Sense, заяви, че организацията е провела тестове след въвеждането на тези защитни мерки и е установила, че те са „повърхностни“. Той обаче посочи, че някои от съществуващите модели на генеративен изкуствен интелект съдържат инструменти за откриване на психични разстройства и не позволяват на чатбота да допусне разговорът да стигне до точка, в която да се появи потенциално опасно съдържание.

Common Sense прави разграничение между помощните, тествани в проучването, и по-популярните чатботове като ChatGPT или Gemini на Google, които не се опитват да предлагат същия диапазон от взаимодействия. | БГНЕС, АФП

Последвайте ни и в google news бутон