Microsoft стартира екип, който наблюдава етиката на AI

Microsoft обяви по-рано тази година, че ще съкрати 10 000 работни места. Този кръг от съкращения засяга, наред с други неща, целия „екип по етика и общество“, според докладите учебна програма. Този екип е отговорен за етичното, отговорно и устойчиво използване на изкуствения интелект (AI). Подобен надзор е често срещан, тъй като резултатите и последствията от ИИ често са трудни за прогнозиране.

Съкращаването съвпада с инвестиция от 1 милиард долара в OpenAI, компанията зад популярния ChatGPT. За да разработи AI ​​чатбота, Microsoft също е инвестирала стотици милиони в суперкомпютър OpenAI през последните години, според доклади. Блумбърг. В замяна на тези инвестиции Microsoft има изключителни права върху ChatGPT и основните модели във всички видове области. Той е интегриран в търсачката Microsoft Bing и в програми на Office като Word и Outlook. По-късно тази седмица Microsoft ще направи презентация за AI приложения за бизнеса.

Правила и принципи

Въпреки че екипът по етика на Microsoft е намален, компанията все още има такъв Отговорен офис на Amnesty International. Тази група излага правилата и принципите, към които Microsoft трябва да се придържа, когато разработва AI приложения. Въпреки съкращенията, според Microsoft инвестициите в отговорност около изкуствения интелект се увеличават.

„Microsoft се ангажира да разработва AI продукти и изживявания безопасно и отговорно и го прави, като инвестира в хора, процеси и партньорства, които дават приоритет на това“, се казва в изявление на компанията. „През последните шест години увеличихме броя на хората в нашите продуктови екипи и в Службата за отговорен AI, които, заедно с всички нас в Microsoft, носят отговорността да приложат нашите принципи на AI в действие.“

READ  На фермерите скоро ще бъде разрешено да ваксинират домашни птици срещу птичи грип, но това „не е практично“

Възможни негативни последици

Бивши служители обаче все още се опасяват от негативни последици поради изчезването на работната група по етика. „Хората погледнаха принципите, които офисът на отговорния AI излезе с и казаха: „Не знам как да приложа това“, каза бивш служител на Platformer. „Нашата работа беше да обясним това, да поставим правилата там, където няма правила.“

Скандалният чатбот на Microsoft

Миналия месец самият Microsoft също откри, че правилното валидиране на AI е от решаващо значение, след като новият AI разговор беше дискредитиран в търсачката Bing. Чатботът започна да прави много грешки след 15 или повече въпроса и след това започна да показва проблемно поведение. Например, програмата редовно се ядосваше на потребителите, объркваше се или напълно излизаше от пътя.

Microsoft призна, че има още много за подобряване на чатбота и постави ограничение за броя на въпросите.

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *