Amazon xodimlari AI’dan foydalanuvchi bosimi: vazifalarni o‘zgartirish
Amazon xodimlari AI ishlatish bo‘yicha bosimga duch kelib, vazifalarni sun’iy intellektga moslashtirishga majbur bo‘ladilar.

Sun'iy intellekt sohasida so'nggi yillarda katta eʼtibor transformer arxitekturasiga asoslangan katta til modellari (LLM)ga qaratilgan. OpenAI va Anthropic kabi kompaniyalar AGI (umumiy sun'iy intellekt) yaqin kunlarda kelishini daʼvo qilsa-da, ilmiy hamjamiyatda bu daʼvolarga nisbatan tanqidiy yondashuv kuchayib bormoqda.
Neuroevolyutsion tadqiqotlar ko'rsatadiki, suyakli hayvonlar miya tuzilishida bir necha "kognitiv primitiv" – son hisobi, obyekt doimiyligi, sabab‑natija aloqasi, fazoviy navigatsiya va jonli‑jonli harakatni farqlash – mavjud. Bu qobiliyatlar millionlab yillar davomida rivojlangan va turli hayvon turlarida bir xil bo'lib, inson aqlining asosini tashkil etadi.
Insonlar til orqali muloqot qilganda, bu primitivlar allaqachon ichida mavjud bo'lgani sababli, matn ichida ularni alohida bayon etish shart emas. Masalan, "Mariya to'pni ushlab turdi" jumlasini to'liq tushunish uchun, Mariyaning jonli, harakat qiluvchi, inson o'lchamidagi mavjudligi, to'pning mustaqil, kichik, gravitatsiyaga qarshi turishi va hokazo kabi ko'plab faktlar kerak bo'ladi – lekin bu faktlar matnda yo'q.
DeepMind’ning SIMA 2 yoki Dreamer 4 kabi loyihalari agentlarni 3D muhitda harakatga o'rgatish maqsadida yaratilgan. Biroq, bu tizimlarning ko'pchiligi asosiy intellektni til modeli (Gemini Flash‑Lite)dan oladi, va faqat qo'shimcha o'yin ma'lumotlari orqali harakatni o'rganadi. Natijada, ular maxsus vazifalarda inson darajasiga yetishsa-da, bu tajriba umumiy til tushunchasiga ijobiy ta'sir ko'rsatmaydi.
2025‑yil Stanford ENACT benchmarki, ko'pchilik vision‑language modellari inson darajasidagi embodied kognitsiyani ko'rsatishda qiyinchiliklarga duch kelishini tasdiqladi. Shuningdek, ARC‑AGI seriyasi vizual-pazitiv muammolarni hal qilishda LLM‑larning cheklovlarini ochib berdi: asosiy modellarning natijalari 0‑% dan boshlanib, maxsus takomillashtirish (refinement loops) bilan 70‑% gacha yetdi, lekin bu ham ko'p hisoblash resurslari talab qiladi.
Ushbu muammolarni yengish uchun bir necha yo'nalish muhim:
Umuman olganda, transformer‑asosli LLM‑lar hozirgi kunda sun'iy intellektning bir qismi bo'lib, lekin inson aqli talab qiladigan asosiy kognitiv primitivlar, embodied cognition va mantiqiy kompozitsionlikni to'liq egallash uchun hali uzoq yo'l bor. Bu yo'lda yangi arxitekturalar, ko'p modalli o'rganish va chuqur nazariy tadqiqotlar birgalikda rivojlanishi zarur.