Apple. Արհեստական ​​ինտելեկտի վրա հիմնված մտածողության մոդելները խափանվում են, երբ առաջադրանքները դառնում են շատ բարդ

Apple. Արհեստական ​​ինտելեկտի վրա հիմնված մտածողության մոդելները խափանվում են, երբ առաջադրանքները դառնում են շատ բարդ

Արհեստական ​​բանականության (ԱԲ) վրա հիմնված մտածողության մոդելները այնքան էլ խելացի չեն, որքան սովորաբար կարծում են։ Իրականում, դրանք լիովին խափանվում են, երբ առաջադրանքները դառնում են չափազանց բարդ, պարզել են Apple-ի հետազոտողները։

Meta-ի Claude, OpenAI-ի o3 և DeepSeek-ի R1 նման տրամաբանական մոդելները մասնագիտացված մեծ լեզվական մոդելներ են (LLM), որոնք ավելի շատ ժամանակ և հաշվողական հզորություն են ծախսում ավելի ճշգրիտ պատասխաններ ստանալու համար, քան իրենց ավանդական նախորդները։

Սակայն Apple-ի Machine Learning Research կայքում հրապարակված նոր ուսումնասիրությունը լուրջ հարված է հասցրել ընկերության մրցակիցներին։ Հետազոտողները նշում են, որ մտածողության մոդելները ոչ միայն չեն կարողանում ցուցադրել ընդհանրացված դատողություն, այլև դրանց դատողությունն է խափանվում, երբ առաջադրանքները գերազանցում են կրիտիկական շեմը։

«Տարբեր հանելուկներով լայնածավալ փորձերի միջոցով մենք ցույց ենք տալիս, որ որոշակի դժվարությունների դեպքում սահմանային LRM-ի ճշգրտությունը լիովին վատանում է», - գրում են հետազոտողները։ - Ավելին, դրանք ցուցաբերում են ինտուիտիվորեն հակասական մասշտաբային սահմանափակում. նրանց տրամաբանական ջանքերը մեծանում են առաջադրանքի բարդության հետ մեկտեղ մինչև որոշակի կետ, ապա նվազում՝ չնայած բավարար տոկենների բյուջե ունենալուն։

LMS-ները զարգանում և սովորում են՝ յուրացնելով մարդկային աշխատանքի հսկայական ծավալի ուսումնական տվյալները։ Այս տվյալների օգտագործումը թույլ է տալիս մոդելներին ստեղծել հավանականային մոդելներ իրենց նեյրոնային ցանցերից և փոխանցել դրանք պահանջի դեպքում։

Լոգիկական մոդելները փորձ են արհեստական ​​բանականության ճշգրտությունը հետագայում բարելավելու՝ օգտագործելով «մտածողության շղթայականացում» անունով հայտնի գործընթաց։ Այն աշխատում է՝ հետևելով այս տվյալների մեջ առկա օրինաչափություններին բազմափուլ պատասխանների միջոցով, ընդօրինակելով, թե ինչպես կարող են մարդիկ օգտագործել տրամաբանությունը եզրակացության հասնելու համար։

Սա չաթբոտներին հնարավորություն է տալիս գերվերլուծել իրենց դատողությունները, թույլ տալով նրանց լուծել ավելի բարդ խնդիրներ ավելի մեծ ճշգրտությամբ։ Մշակման ընթացքում մոդելները իրենց տրամաբանությունը արտահայտում են պարզ լեզվով՝ յուրաքանչյուր քայլի համար, որպեսզի նրանց գործողությունները հեշտությամբ դիտարկվեն։

Այնուամենայնիվ, քանի որ այս գործընթացը հիմնված է վիճակագրական ենթադրությունների վրա, այլ ոչ թե իրական հասկացողության, չաթբոտները ուժեղ հակվածություն ունեն «հալյուցինացիաներ» ունենալու՝ տալով սխալ պատասխաններ, ստելով, երբ իրենց տվյալներում պատասխաններ չկան, և օգտատերերին տալով տարօրինակ, իսկ երբեմն էլ վնասակար խորհուրդներ։