„Чувајте се од вештачката интелигенција“
Еден угледен фотограф кој освои прва награда за својата фотографија на престижен натпревар, мораше да ја врати наградата кога самиот откри дека сликата е направена со помош на вештачка интелигенција (А.I.).
Можеше и да го сокрие тој податок- бидејќи никој од жирито не забележал дека зад перфекцијата на неговата слика се крие нешто друго, но тој подоцна има изјавено дека со признавањето само сакал да предупреди на опасноста од вештачката интелигенција, која веќе е меѓу нас.
Долгогодишна главна уредничка на германско списание доби отказ, по брза постапка од издавачката компанија која го издава весникот, откако има признаено дека нејзиното „ексклузивно интервју“ со тешко повредениот Михаил Шумахер, кој се нема огласено 9,5 години, всушност, е лажно.
„Разговорот “ кој не е тоа, всушност, е текст направен со помош на А.I.
Страв од сопственото откритие
Во меѓувреме, социјалните мрежи, а посебно Ју-Тјуб се повеќе се полнат со фотки на девојки и жени-модели изработени со помош на вештачката интелигенција, иако тоа не се сокрива, со ознаката при дното на фотографиите. И токму во ова време, медиумите низ светот ја пренесоа информацијата дека Џефри Хинтон , инжинер во Гугл – дал отказ на своето работно место и заминува од компанијата.
Заминувањето на Хинтон стана светска вест затоа што станува збор за не било кој и не било каков инжинер. Човекот е еден од татковците, или како што попрецизно го означуваат медиумите- за кумот на A.I.- на вештачката интелигенција.
Веста стана многу повеќе заиимлива за пошироката јавност затоа што овој 75 годишен научник не заминува во пензија , бидејќи повеќе не можел да работи во Гугл и да придонесува за натамошното унапредување на оваа моќна ИТ компанија, туку – како што рекол- затоа што веќе се плаши од своето откритие.
Интелектуален темел за A.I.
Има речено дека заминал од Гугл – „ само за да може слободно да зборува за опасностите што веќе постојат од продолжувањето на развојот на вештачката интелигенција“. Признавајќи на тој начин дека на тоа веќе засилено се работи, не само во неговата досегашна, матична компанија.
Во 2012 година Хинтон и двајца негови дипломирани студенти на Универзитетот во Торонто. имаат создадено технологија која стана интелектуален темел на системот за вештачка интелигенција , што најголемите компании од технолошката индустрија навестуваат дека ќе биде клучна за нивната иднина.
Во разговор за весникот „Њујорк Тајмс“ сега признава дека делумно жали за својот придонес во развојот на А.И. иако се согласува дека доколку не бил тој, некој друг би дошол до откритието.
Како и да е, веднаш по дознавањето за откритието од пред десет години, Гугл го има вработено и Хинтон помогнал во развојот на вептачката интелигенција. Неговата истражувачка работа довела до креирањето системи, каков што е ChatGPT .
Поинтелегентни од луѓето
Хинтон го брани Гугл, тврдејќи дека оваа компанија „примерно управува“ со оваа технологија, но смета дека ваквото раководење се има изменето откако Microsoft почнал да вградува Chatbot во својот пребарувач BING и кога самата компанија почнала да се загрижува за ризикот од пребарувањата на интернет.
Хинтон сега признава дека постојат некои опасности од Chatbot што се – како што вели- прилично застрашувачки. Едноставно, некои од Chatbot може да станат ПОИНТЕЛИГЕНТНИ И ПОПАМЕТНИ ОД ЛУЃЕТО. Тоа,пак, би можело да се злоупотреби и да се искористи од разни „лоши, опасни луѓе“,кои ги означува како „лоши актери“.
„Зборувам за најлошото можно сценарио кое за мене е ноќна мора , затоа што можете да замислите- некој како Владимир Путин, на пример- одлучи на роботите да им даде моќ – да создаваат сопствени подцели , што на крајот може да доведе до подцели, како она- морам да добијам уште поголема моќ“- има речено Хинтон за „Њујорк Тајмс“.
Вели дека, затоа, има заклучено оти видот на интелигенцијата која се создава, мошне силно се разликува од интелигенцијата која сега постои.
„Сите знаат се и повеќе од човекот“
Според него би значело како една замислена ситуација- постојат десет илјади луѓе , а кога едно од нив нешто научи , тоа наеднаш го знаат сите десет илјади. И знаат многу повеќе од она што сега го знае било кој човек.
Она што загрижува е сознанието дека некои работи веќе се вовлечени во секојдневието на луѓето. Затоа и луѓето веќе тешко може да разликуваат видео-снимки, текстови, или фотографии кои се генерирани од A.I. од оние кои ги има направено човекот.
Хинтон смета дека е загрижувачки тоа што вештачката интелигенција ќе замени цела низа сега присутни и раширени професии и функции- како што се правни помошници, лични асистенти и други профили кои сега постојат и се потребни, а се означуваат од луѓето како „досадни“.
Реакција од Гугл
Страшното е што (потенцијално) тоа во иднина ќе се случи и со многу други професии.
На предупредувањата од Хинтон и на неговите коментари во медиумите реагираа од Гугл. Шефот на научно-истражувачкиот тим Џеф Дан има речено дека „вистински жали поради заминувањето на Хинтон, фалајќи ги неговите десет години во компанијата.
Во исто време Дан инсистира на тоа дека Гугл „останува силно посветен на одговорниот пристап кон равојот на вештачката интелигенција“. Според него, Гугул постојано се обидува да ги разбира новите ризици ( поврзани со A.I.) додека во истото тоа време компанијата ги развива иновациите.
Загриженоста , сепак, останува и таа не е само врзана за Џефри Хинтон и негото заминување од работата што досега ја има извршувано.
Пауза во истражувањето?
Во март, на пример, контроверзниот технолошки милијардер Илон Маск , со цела низа експерти во разни области побара ДА СЕ НАПРАВИ ПАУЗА во развојот на A.I. системот . За да може да се обезбеди доволно време за испитување и посебно- за да се дојде до уверувањето дека станува збор за нешто што е безбедно- за луѓето.
Ова обраќање во форма на отворено писмо до јавноста го имаат потпишано илјада научници, а меѓу нив и соосновачот на Microsoft Стив Возниак . Се смета дека токму писмото со предупредување има потикнато да се издаде GPT-4 , помоќната верзија на технологија, која инаку, ја користи ChatGPT .
Хинтон од своја страна, има речено дека тој не е меѓу потписниците на писмото , но за „Њујорк Тајмс“ рекол дека научниците не треба да ги продлабочуваат своите истражувања во врска со развојот на вештачката интелигенција , се додека не разберат – дали тоа што го создаваат можат да го држат под контрола.