ВЕШТАЧКА ИНТЕЛИГЕНЦИЈА У СЛУЖБИ МЕДИЦИНЕ: Халуцинације, измишљотине и лажни лекови

Предраг Стојковић
Предраг Стојковић

27. 10. 2024. у 19:00

ОПЕНАИ-ов алат вештачке интелигенције (АИ) за транскрипцију суочава се са негативним реакцијама јер стручњаци откривају озбиљне недостатке, укључујући измишљени текст и лекове, који угрожавају тачност у критичним областима као што је здравство.

ВЕШТАЧКА ИНТЕЛИГЕНЦИЈА У СЛУЖБИ МЕДИЦИНЕ: Халуцинације, измишљотине и лажни лекови

Фото Shutterstock

„Виспер“, ОпенАИ-ов алат за транскрипцију, хваљен због своје робусности и тачности на нивоу човека, показао је значајну ману: понекад прави фразе или читаве реченице, познате у индустрији вештачке интелигенције као „халуцинације“. Више од десет стручњака, укључујући софтверске инжењере, програмере и академске научнике, потврдило је да „Виспер“ повремено убацује лажне информације, које могу да варирају од расних коментара до измишљених медицинских савета.

Проблем је посебно забрињавајући с обзиром на широку употребу овог алата у свим индустријама за превођење интервјуа, генерисање текста и титловање видеа.

НИКО НЕ ЖЕЛИ ПОГРЕШНУ ДИЈАГНОЗУ

Медицински центри су чак почели да интегришу „Виспер“ у интеракције лекара и пацијента, упркос савету ОпенАИ-а да се алатка не користи у доменима високог ризика. Према истраживачима, његове халуцинације се често појављују у њиховом раду, а један истраживач са Универзитета у Мичигену приметио је да осам од десет транскрипата које је прегледао садржи такве нетачности.

У другом случају, инжењер машинског учења је открио халуцинације у скоро половини од више од 100 сати анализираних података транскрипта, док их је други програмер пронашао у скоро свих 26.000 транскрипата које је анализирао.

Чак ни узорци чистог звука нису имуни на грешке. Недавна студија са више од 13.000 аудио снимака открила је 187 случајева халуцинације текста, што је изазвало забринутост у вези са поузданошћу Виспера у великим размерама, пише АП.

Алондра Нелсон, бивша директорка Канцеларије за науку и технологију Беле куће, изразила је забринутост због потенцијалних последица грешака у транскрипцији, посебно у здравственој заштити.

„Нико не жели погрешну дијагнозу... требало би да постоји виши степен, рекао је Кристијан Воглер, професор на Универзитету Галаде и упозорио на ризик за глуве и наглуве, који не могу лако да открију грешке у транскрибованом садржају.

Усред ових забринутости, стручњаци и заговорници позивају ОпенАИ и америчке савезне агенције да се позабаве тим питањем и размотре регулисање вештачке интелигенције. Вилијам Саундерс, бивши истраживачки инжењер који је напустио ОпенАИ у фебруару, сугерисао је да је проблем решив, али да му ОпенАИ мора дати приоритет.

-Проблематично је ако га ставите тамо и људи су превише сигурни у оно што може да уради и интегришу га у све ове друге системе, рекао је Саундерс.

УВРЕДЉИВ ЈЕЗИК, НЕПОСТОЈЕЋИ ЛЕК...

Као одговор, ОпенАИ је рекао да активно истражује начине за смањење халуцинација и редовно интегрише повратне информације од своје корисничке заједнице. „Виспер“ је интегрисан у различите технологије, укључујући ОпенАИ Чет џи-пи-ти, Мајкрософт и Оракл клауд услуге и платформе отвореног кода као што је Хагинг Фејс, где је преузет више од 4,2 милиона пута само у последњих месец дана.

Академици Алисон Кенеке са Универзитета Корнелл и Мона Слоан са Универзитета Вирџиније анализирале су хиљаде аудио-снимака и откриле да је скоро 40 одсто „Висперових“ халуцинација потенцијално штетно, укључујући фразе које погрешно представљају говорнике. Један узнемирујући пример огледао се у чињеници додавања насилног језик у безазлену изјаву, док је други убацио расне увреде, а трећи је измислио непостојећи лек.

Програмери спекулишу да се „Висперове“ халуцинације често јављају током пауза или позадинске буке. ОпенАИ-јева документација саветује да не користите „Виспер“ у контексту доношења одлука због забринутости око његове тачности. Без обзира на то, здравствене установе као што су Клиника Манкато у Минесоти и Дечја болница у Лос Анђелесу усвајају алатку засновану на овој технологији коју је развила компанија „Набла“ за преписивање лекарских консултација.

„Наблин“ АИ алат заправо брише оригинални аудио-снимак из безбедносних разлога и коришћен је у више од седам милиона медицинских консултација.

Саундерс је упозорио да би брисање могло бити ризично ако се транскрипти не прегледају темељно, јер клиничарима онемогућава да потврде тачност.

-Не можете ухватити грешке ако одузмете основну истину, рекао је он.

„Набла“ признаје могућност халуцинација и, иако захтева ручни преглед транскрипата, предвиђа будућност у којој би аутоматизовани транскрипти могли да раде без провере.

sputnikportal.rs

БОНУС ВИДЕО - РУСИЈА ЛАНСИРАЛА РАКЕТУ: Погледајте тренутак лансирања

Пратите нас и путем иОС и андроид апликације

Pratite vesti prema vašim interesovanjima

Novosti Google News

Коментари (0)

НЕСТВАРНИ НИКОЛА ЈОКИЋ: Денвер и Клиперси одиграли меч за инфаркт, а о игри Србина ће се причати (ВИДЕО)