Штучны інтэлект не варта логіцы навуковага прагрэсу
Тэхналогіі

Штучны інтэлект не варта логіцы навуковага прагрэсу

Мы шмат разоў пісалі ў МТ аб даследчыках і спецыялістах, якія абвяшчаюць сістэмы машыннага навучання «чорнымі скрынямі» (1) нават для тых, хто іх будуе. Гэта абцяжарвае адзнаку вынікаў і паўторнае выкарыстанне якія з'яўляюцца алгарытмаў.

Нейронныя сеткі – тэхніка, якая дае нам інтэлектуальных канвертуючых робатаў і геніяльныя тэкставыя генератары, здольныя нават ствараць вершы – для іншых назіральнікаў застаецца неспасціжнай загадкай.

Яны становяцца больш і складаней, апрацоўваюць вялізныя наборы дадзеных і выкарыстоўваюць масіўныя вылічальныя масівы. Гэта робіць тыражаванне і аналіз атрыманых мадэляў затратным, а часам і немагчымым для іншых даследчыкаў, за выключэннем буйных цэнтраў з вялізнымі бюджэтамі.

Многія навукоўцы добра разумеюць гэтую праблему. Сярод іх Жаэль Піна (2), старшыня NeurIPS, галоўнай канферэнцыі па «узнаўляльнасці». Эксперты пад яе кіраўніцтвам хочуць стварыць "кантрольны спіс узнаўляльнасці".

Ідэя, па словах Піно, складаецца ў тым, каб заахвоціць даследчыкаў прапанаваць іншым дарожную карту, каб у іх была магчымасць узнавіць і выкарыстоўваць ужо праведзеную працу. Вы можаце захапляцца красамоўствам новага тэкставага генератара або звышчалавечым спрытам робата відэагульні, але нават лепшыя спецыялісты паняцця не маюць, як працуюць гэтыя цуды. Таму прайграванне мадэляў ІІ важна не толькі для вызначэння новых мэт і напрамкаў даследаванняў, але і як чыста практычнае кіраўніцтва па выкарыстанні.

Іншыя спрабуюць вырашыць гэтую праблему. Даследнікі Google прапанавалі "карткі мадэляў", каб падрабязна апісаць, як тэставаліся сістэмы, уключаючы вынікі, якія паказваюць на патэнцыйныя памылкі. Даследнікі з Інстытута штучнага інтэлекту Алена (AI2) апублікавалі артыкул, мэтай якой з'яўляецца пашырэнне кантрольнага спісу ўзнаўляльнасці Піно на іншыя этапы эксперыментальнага працэсу. «Пакажы сваю працу», - заклікаюць яны.

Часам асноўная інфармацыя адсутнічае, таму што даследчы праект з'яўляецца ўласнасцю, асабліва лабараторый, якія працуюць у кампаніі. Аднак часцей за гэта прыкмета няздольнасці апісаць зменлівыя і якія ўскладняюцца метады даследавання. Нейронныя сеткі - вельмі складаная вобласць. Для атрымання лепшых вынікаў часта патрабуецца тонкая настройка тысяч "ручак і кнопак", якую некаторыя называюць "чорнай магіяй". Выбар аптымальнай мадэлі часта злучаны з правядзеннем вялікай колькасці эксперыментаў. Магія становіцца вельмі дарагі.

Напрыклад, калі Facebook паспрабаваў прайграць працу AlphaGo, сістэмы, распрацаванай DeepMind Alphabet, задача аказалася надзвычай складанай. Велізарныя вылічальныя патрабаванні, мільёны эксперыментаў на тысячах прылад на працягу шматлікіх дзён у спалучэнні з адсутнасцю кода зрабілі сістэму "вельмі складанай, калі не немагчымай, для ўзнаўлення, тэставанні, паляпшэнні і пашырэнні", па адзнацы супрацоўнікаў Facebook.

Праблема мабыць спецыялізаваная. Аднак, калі задумацца далей, феномен праблем з узнаўляльнасцю вынікаў і функцый паміж адным даследчым калектывам і іншым падрывае ўсю вядомую нам логіку функцыянавання навукі і даследчых працэсаў. Як правіла, вынікі папярэдніх даследаванняў могуць быць скарыстаны ў якасці асновы для далейшых даследаванняў, якія стымулююць развіццё ведаў, тэхналогій і агульнага прагрэсу.

Дадаць каментар