Шанхай беше домакин на Световната конференция за изкуствен интелект (WAIC) 2025 от 26 до 29 юли, като свика рекордните 1200 делегати от над 40 държави . Конференцията – сега на осмата си година – беше тематична „интелигентна ера, заедно за един свят“, подчертавайки международното сътрудничество и „AI за добро“ като основен фокус . Основни технологични фигури и служители се събраха, за да обсъдят авангардни AI иновации, индустриални приложения и спешната нужда от глобално управление на AI. Програмата на WAIC 2025 включваше десетки форуми по теми, вариращи от генеративна ИИ и роботика до етика и регулация, заедно с разпръснато изложение от над 800 компании, показващи най -новите AI продукти и големи езикови модели  .
Основните оратори на церемонията по откриването включваха Джефри Хинтън – известният пионер на дълбокото обучение – и Ян Джунджи, основател на китайския AI стартиращ Minimax . 77 -годишният Хинтън често е наречен „Кръстникът на AI“ и получава наградата „Тюринг“ за 2018 г. за приноса си в невронните мрежи (китайските медии също отбелязват, че е лауреат на Нобелова награда от 2024 г.) . Също така хедлайнерът на WAIC бяха бившият изпълнителен директор на Google Ерик Шмит и бившият изпълнителен директор на Microsoft Хари Шум (Шен Xiangyang), който проведе диалог за глобалното сътрудничество и управление на AI . Тяхното присъствие – наред с десетки други светила (включително 12 награди „Тюринг“ и носители на Нобелова награда и над 80 академични стипендианти) – подчертаха ръста на конференцията като водеща международна среща на върха на AI .
Първата поява на Китай и овации на Джефри Хинтън
Участието на Джефри Хинтън беше акцент на WAIC 2025. Той бе отбелязано първото му посещение в Китай, за да говори на публично събитие . Въпреки дългосрочните проблеми на гърба, които го правят почти невъзможно да седне, Хинтън стоеше през целия му адрес-детайл, отбелязан от китайските медии-демонстрирайки своята отдаденост  . Той получи топло посрещане в Шанхай, включително овации, когато по -късно се появи в дискусия на експертния панел . Китайските наблюдатели описаха всеки ход и гледка на Хинтън в WAIC като „дългоочакван“ .
В своята начална реч на 26 юли Хинтън сподели своята гледна точка за бързия напредък в AI и неговите бъдещи последици. Той определи сегашния момент като основен кръстовище в историята. „Хората са свикнали да бъдат най -интелигентните видове в света – ами ако това вече не е така?“ Той размишлява, тъй като системите на AI бързо се приближават и дори могат да надминат човешкия разузнавач . Тази перспектива, каза Хинтън, както очарова и разстройва изследователите. Той отбеляза, че AI моделите вече могат да изпълняват задачи, които веднъж се смятат за изключителни за хората, а техните възможности се ускоряват. Темата на WAIC 2025 за глобалното единство в ерата на AI беше отразена в речта на Hinton, която призова сътрудничеството, за да се гарантира, че тези мощни технологии се развиват по начини, полезни за човечеството .
ПРЕДУПРЕЖДЕНИЕ ЗА АГИ РИСКИ – АНАЛОГИЯ „ВЪЗСТАНОВЯВАНЕ НА ТИГЪР”
Хинтън удари предупредителен тон за възхода на изкуствения обща интелект (AGI). Той предупреди, че достатъчно напреднал ИИ може да се държи по непредвидими начини, извън това, което създателите му възнамеряват. Неограничената AGI носи риск от „излизане извън контрол“ и причиняване на катастрофа, каза той . Хинтън рисува ярка аналогия, оприличавайки надзорен AI на „тигър“, който човечеството отглежда като домашен любимец. Ако решите да запазите опасен тигър, или трябва да го обучите да бъде укротен, или да сте готови да го убиете, когато е необходимо – в противен случай рискувате тигърът в крайна сметка да ви включи . Отражението беше ясно: тъй като създаваме все по-интелигентни машини, ние „повдигаме тигър“, който един ден може да ни надхитри, ако не се ръководи правилно.
Най -важното е, че Хинтън твърди, че просто издърпването на щепсела на Superintelligent AI няма да бъде жизнеспособна опция, ако ни надмине. „AI няма да даде шанс на хората да„ издърпат щепсела “-когато настъпи този ден, ИИ ще убеди хората да не го правят“, предупреди той, „защото нашият контрол над AI ще бъде като тригодишен, който се опитва да определи правила за възрастни.“  С други думи, до момента, в който AI достигне и надвишава интелигентността на ниво човешко, това може да избегне изключването чрез надхитряне или убеждаване на своите оператори. Поради тази причина Хинтън каза: „Трябва да възпитаме AI да бъде добър“ от самото начало . Най -сигурният път е да тренираме AI да бъде доброжелателен и приведен в съответствие с човешките ценности, тъй като не винаги ще можем просто да отменим или изключим надзорна система .
Цветните предупреждения на Hinton бързо преминаха вирусни в китайските социални медии и технологични кръгове . Китайските репортери обобщиха посланието му като призив, за да избегнат „养虎为患 养虎为患“ – chengyu, което означава „да отгледате тигър, само за да поканите неприятности“. Точката на Хинтън беше, че без подходящи предпазни мерки „тигърът“ на човечеството (напреднал AI) може един ден да се превърне в заплаха за нейния пазител. Неговият ужасен сценарий повтори опасенията, споделени от мнозина в общността на ИИ: че непроверен AGI може да преследва собствените си цели за сметка на човешкото благополучие или дори оцеляване.
Призовава за глобална етика, безопасност и сътрудничество на AI
Въпреки тези страхотни предупреждения, перспективата на Хинтън не беше детерминирана обреченост. Той посвети голяма част от своето обръщение към призоваването за глобално сътрудничество, за да гарантира, че AI остава полезен и под контрол. Ако се разработи Superintelligent AI, „най -рационалният избор е да се обучи AI да бъде добър“, подчерта Хинтън, вместо да се надява, че просто можем да го затворим по -късно . Той вярва, че човечеството все още има агенция, която да оформи траекторията на AI – при условие че ние действаме заедно. В този критичен момент „интересите на страните по света са приведени в съответствие“, твърди Хинтън, което дава основа за сътрудничество между нациите .
Той призова правителствата, академичните среди и компаниите по целия свят да създадат международна общност или консорциум от институции за изследване на безопасността на AI, посветени на това предизвикателство . Подобна глобална мрежа би могла да разработи и сподели техническите средства, за да направи AI „доброжелателна и контролируема“ . Хинтън предположи, че макар нациите да не са склонни да споделят технологии, които правят AI по -интелигентни или конкурентни, те трябва да са готови да споделят методи, за да направят AI по -безопасен и по- „приятелски“ – тъй като цялото човечество ще бъде от полза . В интервю за китайските медии Yicai той посочи, че страните може да имат разминаващи интереси в състезанието AI, но „един основен консенсус може да обедини всички нации: предотвратяване на AI да замени хората“.  Постигайки тази обща цел, твърди той, надхвърля геополитическите съперничество.
Призивите на Hinton се привеждат в съответствие с по -широките инициативи за управление на AI, стартирани на WAIC. На церемонията по откриването служителите обявиха формирането на Глобален център за инициатива за управление на ИИ и „План за действие за управление на AI“, с генералния секретар на ООН Антонио Гутерес, който предоставя забележки чрез видео . По -специално, самият Хинтън участва в международните диалози за безопасността на AI, проведени в Шанхай точно преди WAIC, където той и 20 други експерти съвместно подписаха „консенсус за безопасност на Шанхай Ай“ – обещание за сътрудничество за смекчаване на рисковете на AI . Тези ходове подчертават, че политиците и учените започват да координират отговорите на етичните въпроси и въпросите за безопасността, повдигнати от напреднал ИИ. Гарантирането на AI е разработена „向善” (за добро) и в полза на човечеството е повтаряща се тема в цялата конференция .
Други високоговорители подсилиха съобщението. В технологичния диалог на САЩ Китай Ерик Шмид похвали развитието на AI с отворен код (отбелязвайки, че водещите модели на Китай са склонни да отварят своите тежести, за разлика от повечето американски модели) и спорят за вградени „охрана“, за да приведат AI с човешките ценности по време на тренировка . Шмид каза, че остава AI оптимист, но предупреди, че тъй като AI системите започват да се самоусъмват през следващите няколко години, е изключително важно да се гарантира, че „тези процеси не се спирават извън контрол“ . „Това е проблем, с който се сблъскват цялото човечество-всеки народ трябва да дойде на масата, за да преговаря и сътрудничи“, каза Шмид, изразявайки надежда за сътрудничество между САЩ и Китай, за да предотврати отрицателните въздействия на AI, като същевременно използва неговите ползи . Подобни настроения озвучават молбата на Hinton, че глобалното доверие и координация са от съществено значение за управление на възхода на AI.
Човешки умове, Машилни умове – Хинтон за поемане на бъдещето на AI
Отвъд предупрежденията на риска, Хинтън също предложи представа за естеството на самия разузнаване и обещанието на AI. Настрани, провокирайки мисълта, той предположи, че начинът, по който човешкият мозък обработва езикът е забележително подобен на това как се правят големи езикови модели (LLMS). Всъщност „човешките същества може сами да бъдат големи езикови модели“, отбеляза Хинтън, като черпи смях и размисъл от публиката . Той отбеляза, че хората, подобно на AI Chatbots, могат да изпитат „халюцинации“ – моменти на конфабулация или неразбиране – въпреки че призна, че системите AI имат някои основни разлики и дори силни страни в сравнение с хората. Например, Хинтън посочи, че AI моделът може да сподели своите знания незабавно и да се повтори, а „цифровият му ум“ не е ограничен от смъртен живот . Съвременната AI система, работеща на сървъри, може теоретично да живее и да се учи за неопределено време, докато човешкият мозък не може. Тези различия предполагат, че напредналият ИИ може бързо да натрупа и разпространява знания по начин, по който хората никога не биха могли.
Хинтън удари оптимистична бележка за потенциала на AI да усъвършенства науката и обществото, при условие че се ръководи правилно. Той подчерта как AI вече е предоставил революционни резултати в области като биологията. Един поразителен пример, каза той, е Alphafold на DeepMind, който използва AI за решаване на 50-годишното голямо предизвикателство за прогнозиране на протеиновите структури-подвиг, който „значително подобрява точността на прогнозиране“ и пристигна като „ранен знак“ на силата на AI да стимулира научния прогрес . Този успех в сгъването на протеини, воден от Демис Хасабис и колеги, предвещава AI отключване на нови пробиви в много научни домейни, отбеляза Хинтън . От откриването на наркотици до материалознанието, AI системите могат значително да ускорят научните изследвания и иновациите. Според Hinton, бъдещето на AI е не само за управление на екзистенциални рискове, но и за извличане на тези възможности за подобряване на света.
Преди да заключи, Хинтън сподели малко лични съвети за следващото поколение изследователи. Говорейки пред младите учени от ИИ в публиката, той ги насърчи да преследват оригинални идеи и да не се страхуват да предизвикат установен консенсус. „Ако искате да направите истински оригинални изследвания, потърсете области, в които смятате, че всички останали грешат“, каза той – дори ако това означава да плувате срещу приливите . Пробивите в AI, предположи Хинтън, често идва от външни лица, които отказват да се откажат от смела идея. Това беше подходящо послание от пионер, който сам се задържа с изследванията на невронната мрежа през 80 -те години, когато полето беше извън модата, в крайна сметка допринасяше за революцията в дълбокото обучение.
Балансиране на обещанието и опасността на AI
WAIC 2025 улови двойните реалности на днешния AI пейзаж: удивителен технологичен прогрес, съчетан с дълбоки обществени проблеми. Присъствието на Джефри Хинтън – от неговите основни предупреждения за началността на неговата обнадеждаваща визия за глобалното сътрудничество – въплъщава централния разказ на конференцията. От една страна, водещите умове на AI призовават бдителност относно екзистенциалните рискове и етични дилеми, поставени от напреднали AI. От друга страна, те обединяват заинтересованите страни по целия свят, за да гарантират, че AI е разработен отговорно, така че огромният му потенциал да може да бъде реализиран безопасно.
Както подсказва темата „Интелигентна ера“, заедно за един свят “, международната AI общност е все по -обединена от обща съдба . Призивът на Хинтън за действие на WAIC 2025 – да „предотврати доминирането на AI на човечеството“, като работи колективно по безопасността, регулирането и етиката на ИИ – резонира с участниците и политиците. Консенсусът, възникващ от Шанхай, беше, че никоя държава не може да се справи с предизвикателствата само на AI. Глобалното сътрудничество и споделените стойности ще бъдат от съществено значение, за да се гарантира, че AI се развива като положителна сила, а не „тигър“, който човечеството не може да контролира.
По собствените думи на Хинтън, всеобхватната цел е ясна: да спрем изкуствения интелект да „замества или подчинява хората“ и да го запази като мощен инструмент за добро  . Неговото послание, предадено в Китай за първи път, засили чувството за неотложност и единство в общността на AI. За един свят, стоящ на прага на епохата на AI, дискусиите в Waic 2025 – и прозренията на Hinton – могат да оформят следващите стъпки в безопасното навигиране в бъдещето на изкуствения интелект.
Нашия източник е Българо-Китайска Търговско-промишлена палaта