Игор Насковски: Како да станеш трагач на тартуфи и да заработуваш 5.700€ за 1кг! ↓↓↓
Д-р Џефри Хинтон, кој во 2012 со двајца свои студенти на Универзитетот на Торонто изгради неуронска мрежа, неделава даде отказ во технолошкиот гигант Гугл, пренесува Њујорк тајмс.
75-годишниот Хинтон рече дека отказот го дал за да може слободно да зборува за опасностите од вештачката интелигенција и рече дека делумно се кае за својот придонес на тоа поле. Тој пред една деценија беше донесен од Гугл за да помогне во развојот на неговата AI-технологија.
Истражувањето на Хинтон го поплочи патот за сегашните системи како ЧетГПТ.
Тој за Њујорк тајмс рече дека до минатата година верувал дека Гугл бил „правилен управител“ на технологијата, но тоа се променило откако Мајкрософт почнал да вградува чет-бот во својот пребарувач Бинг, а компанијата почнала да се загрижува за ризикот за нејзиниот бизнис со пребарувањето.
Тој за Би-би-си изјави дека некои од опасностите од чет-ботовите со вештачка интелигенција се „прилично страшни“ и предупреди дека може да станат поинтелигентни од луѓето и да бидат експлоатирани од „лоши луѓе“.
„Во моментов тие не се поинтелигентни од нас, колку што можам да видам. Но мислам дека наскоро може да бидат“, рече тој.
„Дојдов до заклучок дека видот на интелигенција што ја развиваме е многу различен од интелигенцијата што ја имаме ние. Ние сме биолошки системи, а тие се дигитални системи. И сите тие копии можат да учат одделно, но веднаш да го споделат своето знаење. Значи, како да имате 10.000 луѓе и секогаш кога еден човек ќе научи нешто, сите автоматски да го знаат тоа. И на тој начин овие чет-ботови можат да знаат многу повеќе од кој било еден човек“.
Загриженоста на Хинтон на краток рок е нешто што веќе стана реалност – луѓето повеќе нема да можат да препознаат што е вистина на фотографиите, видеата и текстовите генерирани од вештачка интелигенција што го преплавуваат интернетот.
Неодамнешните надградби на генераторите на слики, како што е Мидџурни, значи дека луѓето сега можат да произведуваат фотореалистични слики – една таква слика на папата Франциско во пуфнеста јакна од Баленсијага стана вирална во март.
Хинтон, исто така, беше загрижен дека вештачката интелигенција на крај ќе ги замени работните места како приправници, лични асистенти и друга „амалска работа“, и потенцијално уште повеќе во иднина.
Но британско-канадскиот когнитивен психолог и компјутерски научник за Би-би-си вели дека четботот наскоро би можел да го надмине нивото на информации складирани во човечкиот мозок.
„Во моментов гледаме нештата како ГПТ-4 го засенуваат човекот во количеството на општо знаење што го имаат, и тоа ‘дебело’ го засенуваат. Во однос на расудувањето ГПТ не е толку добар, но веќе врши едноставно расудување. А со оглед на брзината на напредокот, очекуваме работите многу брзо да станат подобри. Затоа мора да бидеме загрижени“, изјави тој за Би-би-си.
„Погледнете како беше пред пет години, а како е сега. Погледнете колку е голем тој чекор, а вие го проширувате понатаму. Страшно е“, истакна тој.
Хинтон рече дека конкуренцијата меѓу технолошките гиганти ги принудува компаниите да произведуваат нови технологии за вештачка интелигенција со опасни брзини, загрозувајќи ги работните места и ширејќи дезинформации. „Тешко е да се види како можете да ги спречите лошите луѓе да го искористат тоа за да прават лоши работи“, изјави тој за Тајмс.
OKAAYYY pic.twitter.com/MliHsksX7L
— leonardo (@skyferrori) March 25, 2023
Иако вештачката интелигенција се користи како помош за луѓето-работници, брзото ширење на чет-ботовите како ЧетГПТ може да ги загрози работните места. Вештачката интелигенција „ја одзема напорната работа“, но „може да одземе и повеќе од тоа“, изјави тој за Тајмс. Научникот предупреди на потенцијалното ширење дезинформации генерирани од вештачката интелигенција, велејќи за Тајмс дека просечниот човек „повеќе нема да може да знае што е вистината“.
Хинтон исто така рече дека има уште неколку причини поради кои дал отказ. „Едната е дека имам 75 години. Значи, време е да се пензионирам. Другата е – всушност сакам да кажам некои добри работи за Гугл. А тие се поверодостојни ако не работам за Гугл“, вели тој.
Тој нагласи дека не сака да го критикува Гугл и дека технолошкиот гигант е „многу одговорен“.
Џеф Дин, водечки научник за Гугл AI, му се заблагодари на Хинтон во изјава за американските медиуми. „Како една од првите компании што ги објави принципите на вештачката интелигенција, остануваме посветени на одговорен пристап кон вештачката интелигенција“, се додава во соопштението. „Постојано учиме да се соочуваме со нови ризици, а во исто време храбро се подобруваме“, посочи тој.
Во март, технолошкиот милијардер Илон Маск и голем број експерти повикаа на пауза во развојот на системите за вештачка интелигенција за да се остави време да се провери и да се добие уверување дека се безбедни.
Отвореното писмо, потпишано од повеќе од 1.000 луѓе, вклучително и Маск и коосновачот на Епл, Стив Возниак, го поттикна објавувањето на ГПТ-4, многу помоќна верзија на технологијата што ја користи ЧетГПТ. Хинтон не го потпиша писмото во тоа време, но за Њујорк тајмс рече дека научниците не треба да „го зголемуваат ова додека не сфатат дали можат да го контролираат“.