Точно както хората понякога търсят сами, аз и моите колеги не можах да устоя на „gpt“. ChatGPT, Bing, Bard и други езикови модели не са машини за факти, но все пак намирам неща, които се открояват. Чатбот, изграден на GPT-3, каза колега Jourian, известен с рецензии на игри и подкастинг, притежавах филмова къща и спечелих филмови награди за нашата работа
.
GPT-4 трябва да е по-добър и въпреки че ChatGPT не ми даде никакви награди с тази версия, той ми каза, че Юриан всъщност е работил за друга компания от пет години като „стратег по съдържание“. Изглежда, че никога не е казвал на никого за тази професия или просто не е вярно.
Всеки, който работи с чатботове, често се сблъсква с това. Базираните на GPT генератори формират факти, условия или хора през цялото време. Това просто не е енциклопедия. Това е езиков модел, който се опитва да формулира отговори чрез изчисляване на следващата най-логична дума въз основа на контекста. Но защо си измисля нещата? И може ли да се направи нещо по въпроса? Време е да разгледаме един от големите недостатъци на AI генераторите, който е, че не можете да се доверите на това, което казват.
„Удобен за хипстър органайзер. Мислител. Комуникатор. Печелен с награди уеб нинджа. Типичен геймър. Зъл гуру на зомбитата. Фен на бирата.“