8 митова о вештачкој интелигенцији у које чак и програмери верују
мисцеланеа / / June 01, 2023
ЦхатГПТ и Стабле Диффусион се неће свом вољом претворити у Скинет.
мит 1. АИ има способност да буде креативан
Гледајући креације неуронских мрежа попут Мидјоурнеи, Стабле Диффусион или ДАЛЛ·Е 2, многи људи предвиђају крај професије уметника. Уосталом, оно што ће човек цртати сатима и данима, машина може да створи за секунде. Да ли то значи да је вештачка интелигенција супериорнија од живог мозга у креативности?
АИ је можда добар у имитирању људске креативности, али све његове креације су некако сличне ономе што смо већ видели или чули. Неуронске мреже гледају хиљаде и милионе слика, а затим креирају нешто слично на основу њих. Али то није исто што и посао. уметник са референцом, јер АИ једноставно не разуме шта копира.
Најзначајније пример: неуронске мреже доживљавају значајне потешкоће са цртањем руку. АИ једноставно не може да схвати колико прстију особа треба да има.
Такође, неуронске мреже нису добре у цртању шара и шара, слова (на сликама где треба да буду текстови убацују смеће), зграда и
аутомобили, и само ликови у позама које се разликују од уобичајених „седи“, „стоји“, „лежи“. Они нису у стању да разликују први план и позадину објеката, не могу да раде са перспективом и немају осећај за простор.Ти си само машина. Само имитација живота. Робот ће компоновати симфонију? Хоће ли робот претворити комад платна у ремек-дело уметности?
Детектив Дел Споонер
Филм "Ја, робот"
Сама АИ нема намеру да негира своје слабости. Упитан зашто се није истакао у цртању прстију, ЦхатГПТ одговори:
„Вештачка интелигенција не може да црта руке јер за то треба да разуме анатомију људског тела и основе цртања. И иако се вештачка интелигенција може обучити да ствара слике људи или животиња, она није у стању да у потпуности ухвати многе нијансе и детаље који се могу приметити само када се посматра стварни објекат. Поред тога, креирање слика помоћу вештачке интелигенције је само математички прорачун, а не креативни процес који захтева интуицију и емоционалну компоненту од особе.
Дакле, неуронске мреже уметника неће заменити. Друга ствар је да они могу постати добар извор за ове последње. инспирација. На крају крајева, слике генерисане вештачком интелигенцијом могу се користити као сличице за ваше сопствене, сложеније слике.
мит 2. АИ је увек отвореног ума и непристрасан
Многи сањају да ће доћи време када ће државама владати неуронске мреже. Верује се да машине, за разлику од људи, доносе одлуке засноване искључиво на логици, а не на емоцијама и жељама. Замислите непоткупљиве судове који увек доносе праведне пресуде, државе које једнако третирају све своје грађане, владе које стварају само разумне Закони. Добро је.
Али у пракси се испоставља да АИ може бити пристрасна. На крају крајева, неуронске мреже су обучени на податке који им људи дају, а људи су склони да буду пристрасни.
На пример, програмери неуронске мреже Беаути. АИ је покушао да направи машину која би бирала најлепше девојке на такмичењима лепоте. У комплету фотографија, са којих је програм обучен да препозна стандарди женска привлачност, преовладали су бели модели. И коначно АИ одлучиода тамнопуте и азијске девојке не могу бити лепе.
Беаути теам. АИ је схватио да су створили расистички АИ и отказали пројекат.
Други пример је Мицрософт-ов Таи.аи цхатбот, који је морао да научи како да води „лежерни и разиграни разговор“ са људима на мрежи.
Мање од 24 сата рада на мрежи било је довољно да неуронска мрежа прикупи од корисника друштвених мрежа лоше навике. Као резултат тога, Таи.аи, претварајући се да је обична 19-годишња девојка, почела је да вређа људе у коментарима, хвали нездраве политичке покрете, осуђује феминизам, а истовремено рецида је феминизам кул. Како кажу, са ким ћете се понашати ...
Без обзира на то колико је АИ добра, зависи од квалитета података који су јој дати и исправности њихове интерпретације. И следствено томе, он ће увек бити пристрасан тачно онолико колико су пристрасни људи који га уче.
Мит 3. АИ увек говори истину
Ко не би желео да са собом има роботског асистента који ће вам увек рећи право решење и обавити сав тежак ментални рад? Замолите АИ да напише дисертацију или прикупи листу извора за чланци - и машина одмах даје тачне податке. То је супер!
Али, нажалост, праве неуронске мреже су далеко не увек дати тачне одговоре. Покушајте, на пример, да замолите ЦхатГПТ да вам помогне у планирању семинарског рада и брзо ћете то пронаћи машина… прави линкове до непостојећих извора и убацује нефункционалне УРЛ адресе да би њен текст изгледао као убедљивије.
Ако питате чет бота зашто покушава да вас превари, он ће невино одговорити да су му, када је учио, сви линкови били релевантни и да он ништа није крив.
Такође је боље не питати ЦхатГПТ за статистичке податке - на пример, за неколико питања о БДП-у истих земаља за исту годину, мирно је дало потпуно различите резултате.
Немојте погрешити: неуронске мреже немају интелект и стога нису свесни њихових одговора. Они вам једноставно копирају податке из претходно обрађених текстова који чинити се њима најпогоднији.
Сама вештачка интелигенција је склона грешкама и грешкама, због чега се ваши захтеви погрешно тумаче и дају нетачне резултате. Поред тога, злонамерни корисници може „нахранити“ неуронску мрежу неистинитим информацијама. На крају ће АИ бити програмиран да сакрије или искривљују податке у својим одговорима или чак носе смеће.
Мит 4. АИ ће изазвати незапосленост
Напредак у генераторима текста као што је ЦхатГПТ довео је неке до страха да ће неуронске мреже одузети послове милионима људи и изазвати огроман пораст незапослености.
Процијените сами: ЦхатГПТ не само да може лако да одржава разговор, већ и пише вести, преписује чланке, па чак и програмира. Са овим трендовима и писци, а програмери и уредници са новинарима наћи ће се без средстава за живот.
Тако мисле људи који или уопште нису радили са неуронском мрежом, или су се само упознали са њеним могућностима и одмах су били одушевљени. Или ужаснут.
Ако неко време користите вештачку интелигенцију за генерисање текстова, приметићете да машина није баш заинтересована за семантички садржај својих писања. Уместо тога, она понавља исте тезе различитим речима.
ЦхатГПТ даје драгуље којима се смеју прави аутори текстова. На пример, за људе заинтересоване за народне инструменте, неуронску мрежу саветује „узми кашике и почни да дуваш“. ВИТҺ програмирање ни није све глатко. АИ може бити корисна за кодере, али његове могућности су ограничене на писање малих алгоритама и потпрограма.
Код који често генерише ЦхатГПТ испада нерадна или прекинута у средини. Замолите АИ да прокоментарише линије његовог стварања, а он ће им мирно дати текст „логика програма је овде“. Јуниор програмер који оставља такве описе у пројекту тешко да би био поглађен по глави.
Студија Организације за економску сарадњу и развој показује, што је у најбољем (за АИ) случају потпуно аутоматизовати могуће је само 10% послова у САД и 12% у Британији.
Неуронске мреже су способне да обављају досадне рутинске радње за особу, као што је сортирање поште и преписивање вести према строго постављеном плану. Али аналитичари ОЕЦД-а су се освестили закључакда АИ неће моћи да конкурише за послове који захтевају висок ниво образовања и сложене вештине.
Генерално, мало је вероватно да ће ЦхатГПТ узети хлеб од особе.
Мит 5. АИ ће постати интелигентан
Физичар Стивен Хокинг рекаода вештачка интелигенција може у потпуности да замени људе. Познате личности као што су Елон Муск, Гордон Мооре и Стеве Возниак такође поменути о опасностима вештачке интелигенције и потреби суспендовати експерименти да га развију.
Идите да схватите шта ће рачунар који размишља да има на уму.
Многи футуролози и писци предвидеода ће развој пуноправне вештачке интелигенције довести до негативних последица по човека.
Али кључна реч овде је „потпуно“. Сам термин АИ у односу на неуронске мреже као што је ЦхатГПТ није сасвим коректно, јер немају интелигенцију. То су само алгоритми, сложени скупови команди и математички модели и они нису у стању да репродукују људске когнитивне функције.
Разлог је једноставан: ми сами још увек не знамо добро како то функционише. наш мозак. А репродуковање у коду је уопште немогућ задатак.
Постоји концепти "слаб" и "јак" АИ. Први су исте неуронске мреже за генерисање текста или сортирање е-поште. Не могу сами да доносе одлуке нити да уче из нових података.
А јака вештачка интелигенција је Скинет из Терминатора или АМ из Елисонове приче. Рачунар који не само да управља информацијама, већ разуме њихово значење у овом или оном степену. Такав АИ постоје само у фантастичним делима, и уопште, непознатда ли је могуће барем теоретски створити електронски аналог људског мозга.
Мит 6. Ускоро ће АИ почети да се развија независно и доћи ће до технолошке сингуларности
Технолошка сингуларност је хипотетичко стање људске цивилизације, када развој технологије постаје толико брз да човек не може да га контролише. Један од аутора овог концепта био је британски математичар Ирвинг Гуд.
Научник предложио: ако креирате "интелигентног агента" који се самостално учи, он ће се побољшати несагледивом брзином. АИ ће почети да ствара нове технологије и модернизује се, а човечанство, неспособно да то разуме, безнадежно ће заостајати у развоју.
Прва суперинтелигентна машина је последњи изум који ће човеку икада требати. Све док је довољно послушна да нам каже како да је држимо под контролом.
Ирвинг Гоод
математичар
Али, као што смо већ објаснили, самоусавршавање способан само јака вештачка интелигенција, а научници сада немају појма како да је створе.
Слаба вештачка интелигенција се обучава на информацијама које јој програмери „храњују“. За обуку неуронске мреже потребан специјалисте који одређују одговарајуће податке за сваки нови циклус обуке, отклањају грешке у узорцима обуке и ажурирају софтвер.
Неуронске мреже не могу да се развијају даље од могућности које су у њих уграђене њиховим кодом. Дакле, технолошка сингуларност је одложена.
Мит 7. АИ ће се побунити против креатора
АИ са довољно развијеном свешћу би, теоретски, могао да сматра људе претњом. И за сваки случај, решите их се тако што ћете покренути нуклеарни рат или заразити становништво планете смртоносним вирус. Никад се не зна, одједном ће ови голи мајмуни извући утикач из утичнице.
Ово је популарна прича у научној фантастици. Један од његових првих коришћени 1967. амерички писац Харлан Елисон у својој приповеци „Немам уста, али морам да вриштим”. У њему је свемоћни компјутер АМ мрзео своје творце, истребио човечанство и оставио само петоро људи на планети да им се ругају само за ништа.
Слава роботима. Смрт људима.
У стварности, побуна вештачке интелигенције је немогућа. Софтверски алгоритми нису самосвесни, немају слободну вољу и емоционалне реакције. Они не могу да гаје негативна осећања према својим творцима или жељу да поробе човечанство. Неуронске мреже нису способне да самостално мењају своје параметре или програм како би измакле контроли.
Овако нешто у теорији Можда јак АИ. Али, као што је горе поменуто, са савременим технологијама неће успети да га створи.
Мит 8. Роботи са вештачком интелигенцијом ће убијати људе
Када говоримо о опасностима вештачке интелигенције и успону машина, обично у нашим главама помислимо на слике из филмова попут Терминатора. Предвођени вештачком интелигенцијом, хорда механичких створења сличних људима, али јачих и бржих од њега, истребљује своје проналазаче.
У пракси, овај сценарио је крајње мало вероватан, а не ради се чак ни о недостатку жеље АИ да некога убије. Само што је тренутно стање роботике далеко иза онога што смо видели у Терминатору и "Матрик».
На пример, робо-бопс Бостон Динамицс-а разликују се по способностима од четвороножног убице из серије Блацк Миррор Металхеад. Не знају како да трче тако брзо да јуре људе који беже. Када покушава да вас сустигне на степеницама, исти Спот се лако може заплести у ноге и пасти.
Још значајнија препрека стварању механизованих убица је недостатак довољно компактног, моћног и дуготрајног извора енергије.
Робопс Бостон Динамицс способан „Живети“ на једном пуњењу до 90 минута – то очигледно није довољно да представља њихову армију за уништење човечанства. Још нису измишљена ни реакторска постројења која раде већ 120 година заредом, а која се могу сместити у сандук машине величине човека, као у Терминатору.
Коначно, стављање вештачке интелигенције у самосталну машину је немогућ задатак. У фантазији Џејмса Камерона је да се уклапа у чип величине нокта. У стварности, да би вештачка интелигенција размишљала, потребна је значајна рачунарска снага - ЦхатГПТ, на пример, ради на фарми, састоји од 10.000 видео картица.
Можете ли замислити колике величине мора бити огроман хуманоид? роботда смести такве "мозге", а какво хлађење треба да има?
Прочитајте такође🧐
- 8 познатиһ уређаја који вас могу шпијунирати. И није шала
- 10 фантастичних филмских изума који су постали стварност
- Више од 100 услуга заснованих на неуронским мрежама за различите задатке