AI терапевтът вече е напълно разгърнат в грижите за психичното здраве в Англия: „Целта е наистина да помогне, а не да замести“

Може ли изкуственият интелект да помогне на психотерапевтите да поставят по-бързи и по-добри диагнози? В Англия мислят така: там доставчиците на здравни услуги и пациентите използват AI софтуер. Но един технологичен философ предупреждава: „AI не ви разбира“.

Приложенията с изкуствен интелект, които помагат на хората да подобрят психичното си здраве, съществуват от известно време с различна степен на успех. Въпреки това, английската здравна система (NHS) вече е прегърнала AI и използва технологията широко в грижите за психичното здраве.

Диагноза и план за лечение

Компютърната програма Limbic се използва там за подпомагане на психотерапевтите. Дори преди да разменят дума с пациента си, софтуерът може да предвиди диагнозата и да разработи потенциален план за лечение.

Limbic работи на базата на изкуствен интелект. Софтуерът беше обучен с помощта на много данни: използвана беше информация от стотици хиляди пациенти и техните диагнози, но бяха комбинирани и различни литературни проучвания.

Вижте също

Не е водоустойчив

„Нашата цел е наистина да помогнем, а не да заместим“, казва Себастиан де Врис. Той е един от основателите на стартъпа зад софтуера. „Как да сте сигурни, че терапевтът може да вземе решение по-бързо и как да сте сигурни, че това решение е правилно?“

De Vries признава, че не всички диагнози, предоставени от програмата, могат да бъдат правилни. AI ​​системата не е водоустойчива, нито сегашният начин на работа, според него: „Терапевтите също не винаги са съгласни относно диагнозата или плана за лечение.“

Малко време

Той допълва, че сега се пропускат някои диагнози. „В NHS в Англия виждате, че депресията и тревожните разстройства са свръхдиагностицирани, но специфични тревожни разстройства като посттравматично стресово разстройство са недостатъчно диагностицирани.“

READ  Ubiquiti предлага рутера UXG Max с 2.5Gbit/s портове за 223 евро – Компютър – Новини

Според De Vries това е „директен резултат“ от факта, че много терапевти нямат достатъчно време. Това е една от причините NHS да се фокусира върху нови технологии като тази. Лимбичната хирургия сега се използва в почти половината клиники за психично здраве в Англия.

Вижте също

На „терапия“ с чатбот

В допълнение към помощта на терапевти, пациентите могат също да говорят с AI „терапевт“ чрез чатбота на софтуера. Това има за цел да ги подкрепи между сесиите с истински терапевт.

Според де Врис тази функция е успешна: „Хората, които са имали първата си сесия с Limbic, са по-склонни да посетят следващите сесии, защото имат по-добър опит и защото смятат, че терапевтът е решил проблема им по-добре.“

„AI не те разбира“

Шанън Валор е професор в университета в Единбург и философ на технологиите. Тя оспорва как AI може да се използва по този начин в (психичното) здравеопазване. „Не мисля, че е възможно една AI система, предвид ограниченията, пред които е изправена, да се представи като разбиращ терапевт.“

„Тези системи не ви разбират и не са нищо повече от статистически модели. Те могат да направят грешки, които обучен лекар никога не би направил“, посочва тя.

Вижте също

Съмнения в успеха

Освен това Валор се съмнява в успеха на Лембек. Доказателствата за това, предоставени от стартъпа, се базират на собствени проучвания, а това не е възможно, казва технологичният философ.

Тя не разбира защо NHS би избрала тази технология за нещо толкова важно като грижата за психичното здраве. „Това решение трябва да се основава на медицински и клинични доказателства, а не на пропаганда или обещания, за които няма доказателства.

READ  Microsoft планира да пусне стик за стрийминг на игри Xbox Cloud за телевизори в рамките на една година - Игри - Новини

По-строг надзор?

Valor подчертава, че това е уязвима група пациенти. Затова е необходимо внимание, но философът на технологиите смята, че се случва точно обратното. „Тези технологии често се използват за първи път сред най-уязвимите групи в обществото.“

Тя вярва, че трябва да има по-строг надзор върху приложенията на ИИ с „терапевтични твърдения“, особено за уязвимите групи. „Има голяма опасност да стигнем до субективни или неверни резултати“, предупреждава наскоро философът на технологиите.


AI терапевтът вече е напълно разгърнат в грижите за психичното здраве във Великобритания: „Целта е наистина да помогне, а не да замести“

да попитам? Питайте ги!

Имате ли въпроси или искате отговори? Изпратете ни съобщение тук в чата. Всеки четвъртък в бюлетина „Включете се“ ви казваме какво правим с всички отговори. Искате ли го в имейла си? Тогава се регистрирайте тук.

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *