Google Bard вече може да генерира код на 20 езика за програмиране – IT Pro – Новини

Като разработчик все още не съм много притеснен. Напоследък се опитвам да използвам изкуствения интелект в работата си. Първоначално изглежда, че върви добре, ChatGPT (и други системи с изкуствен интелект) бързо придобиват фактор „уау“.

В момента, в който погледнете по-отблизо, AI пада през кошницата. Големият проблем е, че AI все още не е способен на логически разсъждения (окей?), нито е в състояние да се валидира. Това, което прави, е да даде отговор, дори и да е пълна глупост.
Това е като да позволите на 5-годишно дете да отговаря с неограничени знания. Колкото по-подробен е въпросът, толкова по-малко важна става всяка точка. Колкото по-дълъг е отговорът, толкова повече предположения и преки пътища се използват за генериране на отговор (технически правилен език).

Например проблем, базиран на твърдението „Винаги е пет часа някъде“:

В коя държава е местното време между 16:00 и 18:00 часа сега? Гледайки времето, сега е 09:11, 2023-04-13 в Холандия

Отговор (GPT 4):

Тъй като Холандия се намира в централноевропейско време (CET), което е GMT+2, местното време е два часа по-напред от средното време по Гринуич. Следователно, ако в момента е 09:11 в Холандия на 13 април 2023 г., местното време ще бъде между 16:00 и 18:00 в страни, които изостават с два до четири часа от централноевропейското време. Ето някои примери за държави, в които периодът може да бъде между 16:00 и 18:00:

Обединено кралство (GMT+1)
Португалия (GMT+1)
Ирландия (GMT+1)
Исландия (GMT)
Кабо Верде (GMT-1)
Гренландия (GMT-2)

Началото върви добре, но „така“ вече се обърка. Списъкът с отговори е напълно различно подмножество и изглежда е добавен на случаен принцип. GPT не може (все още) да интерпретира това в момента и очевидно/така че не може да провери или потвърди себе си.

READ  До ръба? - преглед

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *