Google: Нелогичните отговори в резултатите от търсенето с изкуствен интелект не са били халюцинация – IT – Новини

Странните и често неточни отговори, които приложението на Google за изкуствен интелект показа в своята търсачка през последните седмици, не бяха халюцинация, а обикновено бяха „погрешно разбрана заявка за търсене“. Google също казва, че изобщо не може да се търси много информация.

Google отговаря В публикация в блог към скорошни публикации в социалните медии относно новата функция за преглед на изкуствения интелект. Компанията го показа по време на I/O Developers Conference. AI Overview е функция, при която изкуственият интелект, базиран на Gemini, се опитва да предостави отговори на запитвания в горната част на резултатите от търсенето. Странни резултати се появиха през последните седмици и бързо се разпространиха бързо. Ето как изкуственият интелект препоръча хората с депресия Да скочи от мостаИли че потребителите Най-добре е да гледате директно към слънцето в продължение на петнадесет минути.

В публикация в блог Google Now казва, че има няколко причини, поради които търсачката е предоставила тези отговори, но също така, че има много екранни снимки, за които компанията каза, че са фалшиви. Google цитира редица примери, включително когато AI съветва бременни жени да пушат, но казва, че „тези резултати никога не са се случвали“. Компанията не казва как може да твърди това с такава сигурност.

Google признава, че се появяват други отговори, които нямат смисъл. Според Google в повечето случаи това се дължи на наличието на т.нар Данните са празни възникна; В интернет има твърде малко информация, за да може AI да даде добър отговор. В много случаи тези въпроси първоначално нямат смисъл, като например „Колко камъка трябва да ядете всеки ден?“ „Преди тези екранни снимки да станат вирусни, почти никой не попита Google“, казва компанията. Поради тази причина почти няма уебсайтове, които да дават сериозен отговор на този въпрос. Следователно AI Overview не може да разчита на твърде много данни за обучение.

READ  Кражба на бронзови статуи от гробове: отидете и работете за парите си

Общ преглед на Google Bridge AI

Google също така казва, че са се появили „няколко примера“ за отговори въз основа на „саркастично или подобно на трол съдържание във форумите“. Компанията също така признава, че AI ​​Overview е интерпретирал погрешно езика и е показал неправилна информация в „ограничен брой случаи“, но отрича, че AI ​​Overview е халюцинация.

Generative AI е известен с предоставянето на отговори, които не са базирани на съдържание, а просто лингвистично представяне на това, което някой разумно може да очаква в отговор. Според Google, AI Overview не е просто езиков модел, но информацията идва само от най-добрите резултати, които обикновено идват от търсачката. „Когато AI Overview се обърка, това обикновено е поради друга причина, като например неразбиране на търсения или нюанси на интернет езика, или защото няма достатъчно добра налична информация.“

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *