🚨 پژوهش Google DeepMind: مدلهای زبانی بزرگ (LLM) هرگز به آگاهی نخواهند رسید!!!
در مقالهای تازه، الکساندر لِرشنر دانشمند ارشد Google DeepMind اعلام کرده که هیچ هوش مصنوعی هرگز نمیتواند به آگاهی واقعی برسد؛ ادعایی که مستقیماً روایتهای بلندپروازانه مدیرانی مانند دمیس هاسابیس و ایلان ماسک دربارهی «ظهور AGI» را به چالش میکشد. او میگوید AI بدون انسان حتی معنای دادهها را هم نمیفهمد و آگاهی به «بدن، نیازهای بقا و تجربهٔ واقعی» گره خورده است. این موضع که از درون خود گوگل منتشر شده، موجی از واکنشها را میان متخصصان و منتقدان ایجاد کرده و پرسشهای جدی دربارهٔ آیندهٔ AGI و محدودیتهای واقعی هوش مصنوعی مطرح کرده است.
🔎 جزئیات کامل این گزارش را در ادامه بخوانید 👇
✅واحد هوش مصنوعی مؤسسه مصاف
🆔@Masaf_Ai
🚨 پژوهش Google DeepMind: مدلهای زبانی بزرگ (LLM) هرگز به آگاهی نخواهند رسید!!!
در یک مقالهٔ تازه و بحثبرانگیز، الکساندر لِرشنر، دانشمند ارشد آزمایشگاه هوش مصنوعی Google DeepMind، اعلام کرده است که هیچ سامانهٔ هوش مصنوعی یا محاسباتی هرگز به آگاهی نخواهد رسید. 🤖 این ادعا با روایت رایج مدیران شرکتهای بزرگ تکنولوژی — از جمله دمیس هاسابیس مدیرعامل DeepMind که اخیراً گفته بود AGI «ده برابر تاثیر انقلاب صنعتی را خواهد داشت و ده برابر سریعتر رخ میدهد» — در تضاد جدی قرار میگیرد. 🧠🔥
لِرشنر در مقالهاش با عنوان «The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness» توضیح میدهد که هر سیستم AI اساساً «وابسته به نقشهساز» است؛ یعنی بدون یک انسان که جهان را برای آن به دادههای معنادار تبدیل کند، نمیتواند هیچ فهم یا تجربهای از خود داشته باشد. به گفته او، این باور که اگر AI رفتار آگاهانه را تقلید کند، میتواند خودِ آگاهی را داشته باشد، یک «سفسطهٔ انتزاعی» است.
💬 لرشنر تأکید میکند که آگاهی بدون بدن، نیازهای بقا و درگیری مداوم با محیط شکل نمیگیرد. یوهانس یَگِر، زیستشناس سامانههای تکاملی، نیز این نکته را پررنگتر میکند: «یک مدل زبانی فقط مجموعهای از الگوها روی یک هارد است؛ نه غذا میخواهد، نه نفس میکشد، نه برای زنده ماندن تلاش میکند. هیچ انگیزهٔ درونی ندارد و معنیاش را انسان از بیرون تعریف میکند.» 🧩
با وجود این، بسیاری از متخصصان حوزهٔ آگاهی میگویند استدلالهای لرشنر گرچه قویاند، اما چیز جدیدی نیستند و دههها پیش توسط فیلسوفان و پژوهشگران دیگر مطرح شدهاند. 🧓 مارک بیشاپ، استاد محاسبات شناختی در دانشگاه لندن، میگوید: «من با ۹۹٪ حرفهایش موافقم، اما اینها همه سالها پیش گفته شده بودند.»
با این حال، اینکه چنین مدعایی از درون خود گوگل منتشر شده، برای بسیاری قابلتوجه و حتی عجیب است. برخی کارشناسان معتقدند که این نتیجهگیری ممکن است برای شرکتهایی مانند گوگل از نظر مالی و قانونگذاری نیز مطلوب باشد؛ چرا که اگر AI آگاه تلقی شود، احتمالاً موضوع اعطای «حقوق قانونی» برای ماشینها مطرح میشود. ⚙️
لِرشنر در عین حال میگوید AGI بدون آگاهی کاملاً ممکن است و چنین سیستمی نه یک «موجود اخلاقی جدید»، بلکه فقط یک «ابزار بسیار پیچیده و فاقد احساس» خواهد بود. این دیدگاه با ادعاهای پرهیاهوی مدیرانی مانند هاسابیس یا ایلان ماسک درباره ضرورت AGI برای دستیابی به خودران سطح ۵ در تضاد قرار میگیرد. 🚗💡
📝 منتقدانی مانند امیلی بندر، استاد زبانشناسی دانشگاه واشنگتن، میگویند مقالهٔ لرشنر بسیاری از منابع مهم را ذکر نکرده و مسیر داوری علمی را طی نکرده است. او تأکید میکند: «علوم کامپیوتر باید خودش را یکی از رشتههای علمی بداند، نه قلهٔ دانش بشری. اگر چنین باشد، شرایط پژوهش بهتر خواهد بود.»
🌐 در مجموع، مقالهٔ لرشنر شکافی عمیق میان روایتهای تبلیغاتی شرکتهای AI و تحلیلهای آکادمیک دربارهٔ ماهیت آگاهی و محدودیتهای هوش مصنوعی را آشکار میکند؛ شکافی که بهنظر میرسد پیامدهای مهمی برای آیندهٔ AGI، قوانین مربوط به فناوری و انتظارات عمومی از AI خواهد داشت. ✨
✅واحد هوش مصنوعی مؤسسه مصاف
🆔@Masaf_Ai
مرد پشت AlphaGo معتقد است هوش مصنوعی در مسیر اشتباه قدم گذاشته است 🚦🤖
دِیوید سیلور، مغز متفکر پشت AlphaGo و یکی از تاثیرگذارترین پژوهشگران هوش مصنوعی، معتقد است مسیر امروز صنعت AI اشتباه است. 🚦 سیلور که در سال ۲۰۱۶ با ساخت AlphaGo نخستین جرقههای «فراهوش» را به جهان نشان داد، اکنون با تأسیس شرکت جدیدش Ineffable Intelligence رویکردی متفاوت را دنبال میکند: ساخت AI از مسیر یادگیری تقویتی، نه متکی بر مدلهای زبانی بزرگ. به گفته او، LLMها فقط از هوش انسانی تغذیه میشوند، در حالی که سیستمهای یادگیرندهٔ مستقل میتوانند «بینهایت یاد بگیرند» و به نوعی سوخت تجدیدپذیر هوش تبدیل شوند. 🔁
سیلور میگوید هدفش ساخت «سوپر یادگیرندههایی» است که بتوانند به تنهایی علم، فناوری یا حتی سیستمهای اقتصادی جدید کشف کنند. او این مسیر را «اولین تماس با فراهوش» مینامد و معتقد است پروژههایی که صرفاً بر LLMها تکیه میکنند، هرگز به چنین نقطهای نمیرسند. نمونهای که میزند ساده است: اگر یک LLM را در دنیایی با باور «زمین تخت» رها کنیم، بدون تعامل با واقعیت، همان باور غلط را تا ابد حفظ میکند. 🌍
شرکت جدید او تاکنون ۱.۱ میلیارد دلار سرمایه اولیه با ارزشگذاری ۵.۱ میلیارد دلاری جذب کرده و پژوهشگران مطرحی از DeepMind و شرکتهای دیگر به او پیوستهاند. سیلور همچنین اعلام کرده تمام درآمد احتمالی خود از سهام شرکت را به خیریه اهدا خواهد کرد: «ساخت فراهوش مسئولیت بزرگی است و هر پولی که به دست بیاورم باید صرف نجات جان انسانها شود.» ❤️🩹
مسیر او بر ایجاد عاملهای هوشمند درون شبیهسازیهای پیچیده است؛ جایی که بتوان رفتار عاملها، همکاری، رقابت و سازگاری آنها را مشاهده و ارزیابی کرد. برخی سرمایهگذاران، از جمله Ravi Mhatre، معتقدند این رویکرد مزیت مهمی برای ایمنی دارد، چون به جای تقلید رفتار انسان، از صفر یاد میگیرد و ممکن است سازگاری بیشتری با ارزشهای انسانی داشته باشد.
سیلور ریشه دیدگاهش را در سنت قدیمی یادگیری از تجربه میبیند—همان مسیری که آلن تورینگ و سپس ریچ ساتن و اندرو بارتو بنیان گذاشتند و برایش جایزه تورینگ ۲۰۲۵ اهدا شد. او اعتقاد دارد یادگیری تقویتی همان کلید واقعی ساخت فراهوش است، نه مدلهایی که تنها انبوهی از متن انسانها را میبلعند.
در حالی که تب ساخت فراهوش به اوج رسیده و شرکتها میلیاردها دلار برای آن هزینه میکنند، بسیاری باور دارند که سیلور—بهدلیل سابقهٔ علمی بینقص و شخصیت فروتنش—میتواند بهترین استعدادهای جهان را گرد هم بیاورد. «او بسیار باهوش، خلاق و در عین حال واقعاً آدم خوبی است. این برای پژوهشگران اهمیت زیادی دارد.» 🌟
برای سیلور اما انگیزه اصلی چیز دیگری است:
«از نظر علمی، این مهمترین مأموریتی است که ممکن است بشر در آن قدم بگذارد.»
✅واحد هوش مصنوعی مؤسسه مصاف
🆔@Masaf_Ai
مرد پشت AlphaGo معتقد است هوش مصنوعی در مسیر اشتباه قدم گذاشته است 🚦🤖
دیوید سیلور، خالق AlphaGo، معتقد است صنعت هوش مصنوعی در مسیر اشتباهی حرکت میکند؛ او برخلاف موج غالب مدلهای زبانی بزرگ، باور دارد فراهوش واقعی نه از دل دادههای انسانی، بلکه از طریق یادگیری تقویتی و تجربه مستقیم در شبیهسازیها بهدست میآید—سیستمهایی که بتوانند خودشان کشف کنند، آزمایش کنند و بیوقفه یاد بگیرند. شرکت تازهتأسیس او، Ineffable Intelligence، با جذب بیش از یک میلیارد دلار سرمایه، قصد دارد «اولین تماس با فراهوش» را رقم بزند؛ مأموریتی که به گفته سیلور میتواند آینده علم و فناوری را بازتعریف کند. اما چرا او معتقد است LLMها هرگز به این نقطه نمیرسند؟ و این رویکرد چه پیامدهایی برای ایمنی و آینده AI دارد؟
🔎 جزئیات کامل این گزارش را در ادامه بخوانید 👇
✅واحد هوش مصنوعی مؤسسه مصاف
🆔@Masaf_Ai
📰 « دیتاسنترهای هوش مصنوعی؛ وقتی هوش مصنوعی به مسئله قبض برق و انتخابات تبدیل میشود ⚡️🤖🗳»
🤖 به گزارش Politico، رشد سریع دیتاسنترهای هوش مصنوعی در ایالتهایی مثل جورجیا دیگر فقط یک موضوع فناورانه نیست؛ به یک مسئله جدی سیاسی و اقتصادی تبدیل شده است.
این مراکز برای اجرای مدلهای هوش مصنوعی به برق عظیم و دائمی نیاز دارند و حالا رأیدهندگان میپرسند:
آیا هزینه توسعه این زیرساختها در نهایت روی قبض برق خانوادهها مینشیند؟ 💸⚠️
📌 همین نگرانی باعث شده:
موضوع دیتاسنترها وارد فضای انتخابات میاندورهای ۲۰۲۶ شود؛ جایی که بحث اصلی فقط «پیشرفت هوش مصنوعی» نیست، بلکه این است که چه کسی هزینه انرژی این پیشرفت را پرداخت میکند؟
جزئیات بیشتر درباره فشار روی شبکه برق و سیاست انرژی را در پست بعدی بخوانید 👇
✅واحد هوش مصنوعی مؤسسه مصاف
🆔@Masaf_Ai
📰 « دیتاسنترهای هوش مصنوعی؛ وقتی هوش مصنوعی به مسئله قبض برق و انتخابات تبدیل میشود ⚡️🤖🗳»
⚡️ حالا که مسئله روشن شد، بخش مهمتر ماجرا این است:
هوش مصنوعی بدون انرژی ارزان و پایدار رشد نمیکند.
دیتاسنترهای جدید فقط چند ساختمان پر از سرور نیستند؛ آنها مصرفکنندههای عظیم برقاند که میتوانند برنامهریزی انرژی یک ایالت را تغییر دهند. در جورجیا، نهاد تنظیمگر برق طرحی برای حدود ۱۰ گیگاوات ظرفیت برق جدید تأیید کرده؛ ظرفیتی که گزارشها آن را معادل برق موردنیاز حدود ۸.۳ میلیون خانه دانستهاند و بخش زیادی از آن قرار است از سوختهای فسیلی تأمین شود.
💸 همینجا نگرانی مردم شروع میشود:
اگر شرکتهای بزرگ فناوری برای دیتاسنترهای هوش مصنوعی برق بیشتری بخواهند، آیا هزینه نیروگاه، خطوط انتقال و توسعه شبکه را خودشان میدهند یا این هزینه بین همه مشترکان پخش میشود؟ منتقدان میگویند در جورجیا، ساخت نیروگاههای جدید میتواند به نفع شرکت برق باشد، چون سرمایهگذاری بیشتر برای شرکت خدمات عمومی به معنی سود بیشتر است؛ اما برای مردم، نتیجه ممکن است قبض برق بالاتر باشد.
🔥 این موضوع برای دموکراتها به یک فرصت انتخاباتی تبدیل شده است:
آنها میخواهند دیتاسنترهای هوش مصنوعی را به مسئلهای ملموس برای رأیدهنده تبدیل کنند:
نه بحث پیچیده فناوری، بلکه سؤال سادهای مثل این:
چرا خانوادهها باید هزینه برقِ پروژههای غولهای فناوری را بدهند؟
در همین فضا، AP هم گزارش داده که نارضایتی از دیتاسنترها و نرخ برق میتواند به دموکراتهای جورجیا کمک کند، چون مسئله از سطح «توسعه فناوری» به سطح هزینه زندگی آمده است.
دیتاسنترهای هوش مصنوعی قرار است ستون فقرات اقتصاد آینده باشند؛
اما اگر انرژی آنها گران، آلاینده یا ناعادلانه تأمین شود، میتوانند به یک بحران سیاسی تبدیل شوند.
💥 یعنی جنگ بعدی بر سر هوش مصنوعی فقط در آزمایشگاهها و شرکتهای فناوری نیست؛
بخشی از آن روی شبکه برق، قبض خانهها و صندوق رأی اتفاق میافتد.
✅واحد هوش مصنوعی مؤسسه مصاف
🆔@Masaf_Ai
📰 «شرکت Anthropic علت افت کیفیت Claude Code را توضیح داد؛ سه تغییر کوچک، یک اختلال بزرگ ⚠️🤖»
🤖 به گزارش Anthropic، افت کیفیتی که برخی کاربران در Claude Code گزارش کرده بودند، به سه تغییر جداگانه برمیگشت:
• کاهش سطح پیشفرض Reasoning Effort برای کم کردن تأخیر
• یک باگ در مدیریت حافظه جلسات قدیمی
• یک تغییر در System Prompt برای کوتاهتر کردن پاسخها
نکته مهم این است که به گفته آنتروپیک، API و لایه اصلی Inference تحتتأثیر قرار نگرفته بودند.
⚡️ نتیجه این تغییرات:
باعث شده بود Claude در بعضی سناریوها کمهوشتر، فراموشکارتر یا تکراریتر به نظر برسد؛ مخصوصاً در کارهای کدنویسی و جلسات طولانی. Anthropic میگوید همه این مشکلات تا ۲۰ آوریل در نسخه v2.1.116 برطرف شده و برای جبران، محدودیت مصرف همه مشترکان را هم ریست کرده است.
✅واحد هوش مصنوعی مؤسسه مصاف
🆔 @MasafAi
الجزیره: ویدیوهای لگویی ایرانی در رقابت روایتها درباره ترامپ توجه گسترده جلب کردند
وبسایت شبکه الجزیره در یادداشتی با عنوان «انتقام برای همه» گزارش داده است:
🔹 ویدیوهای ایرانی ساختهشده با هوش مصنوعی و در سبک لگو، با ترکیب طنز، عناصر فرهنگ عامه و روایتهای ساده، بهسرعت در شبکههای اجتماعی منتشر شده و مخاطبان زیادی را به خود جذب کردهاند. این ویدیوها تصویری انتقادی از ترامپ و سیاستهای ایالات متحده ارائه میکنند.
🔹 این محتواها که معمولاً همزمان با رویدادهای مرتبط با جنگ و با سرعت بالا تولید میشوند، «میلیونها بازدید» داشتهاند و با پیوند دادن جنبههای سرگرمی و پیاممحور، به یکی از ابزارهای اثرگذار در شکلدهی افکار عمومی و رقابت روایتها در فضای رسانهای جهانی تبدیل شدهاند.
✅واحد هوش مصنوعی مؤسسه مصاف
🆔 @Masaf_Ai
چشم در جلوی چشم
پالایشگاه هایی که باید دوباره ساخته شود 🥷🪖
پالایشگاه باپکو در بحرین
ظرفیت ۲۶۷ هزار بشکه در روز
ارزش ۶ ملیارد دلار
یکی از مدرن ترین پالایشگاه ها در منطقه
--------------
على مرأى ومسمع من الجميع... مصافٍ تحتاج إلى إعادة البناء 🥷🪖
مصفاة "بابكو" في البحرين
· طاقة إنتاجية: 267 ألف برميل يومياً
· قيمتها: 6 مليارات دولار
· واحدة من أحدث المصافي في المنطقة
✅واحد هوش مصنوعی مؤسسه مصاف
🆔 @Masaf_Ai
49M حجم رسانه بالاست
مشاهده در ایتا
🔸 Heroic Battle animation
▫️انیمیشن کوتاه «نبرد قهرمانانه»
🇮🇷از دل افسانه، مردی برخاست که تیرش مرزهای هراس را درنوردید.
قرنها گذشته است، اما مسیر همان مسیر است.
قدرت جوانان این سرزمین نه تنها در بازوان، بلکه در اراده، غیرت و ایستادگی آنان جلوهگر است.
💢سرنوشت این نبرد را ما رقم خواهیم زد…
✅واحد هوش مصنوعی مؤسسه مصاف
🆔 @Masaf_Ai
📰 روایت چین از رقابت جهانی هوش مصنوعی
به گزارش Global Times، رقابت در حوزه هوش مصنوعی به یکی از مهمترین محورهای رقابت قدرتهای جهانی تبدیل شده و چین تأکید دارد که توسعه AI باید بهصورت «همکاریمحور» و نه تقابلی پیش برود 🌐🤖.
مقامات چینی اعلام کردهاند که این کشور بهدنبال گسترش همکاریهای بینالمللی در حوزه فناوری است و نباید AI به ابزاری برای فشار سیاسی یا محدودسازی تبدیل شود ⚖️.
این موضعگیری در شرایطی مطرح میشود که محدودیتهای آمریکا علیه شرکتهای فناوری چینی افزایش یافته و رقابت تکنولوژیک دو کشور وارد مرحله جدیدی شده است ⚡.
تحلیلگران معتقدند این اختلاف دیدگاه میتواند آینده نظم جهانی در حوزه فناوری را شکل دهد 📊.
🔎 جزئیات کامل این گزارش را در ادامه بخوانید 👇
✅واحد هوش مصنوعی مؤسسه مصاف
🆔 @Masaf_Ai
📰 هوش مصنوعی در قلب رقابت ژئوپولیتیک؛ اختلاف رویکرد چین و غرب
گزارش Global Times نشان میدهد چین در تلاش است روایتی متفاوت از رقابت در حوزه هوش مصنوعی ارائه دهد؛ روایتی که بر همکاری بینالمللی و توسعه مشترک فناوری تأکید دارد 🌐.
📌 مقامات این کشور معتقدند استفاده از AI بهعنوان ابزار فشار سیاسی یا محدودسازی دسترسی، میتواند به تضعیف نوآوری جهانی و افزایش شکاف فناوری منجر شود.
🤖 این در حالی است که ایالات متحده در سالهای اخیر با اعمال محدودیتهای گسترده، از جمله در حوزه چیپها و صادرات فناوری، تلاش کرده رشد شرکتهای چینی را کنترل کند.
⚠️ در پاسخ، چین بهدنبال توسعه زنجیره تأمین مستقل و کاهش وابستگی به فناوریهای غربی است؛ اقدامی که میتواند به شکلگیری دو اکوسیستم مجزا در حوزه AI منجر شود.
📊 تحلیلگران معتقدند این روند، رقابت در حوزه AI را از سطح تجاری به سطح استراتژیک و امنیتی منتقل کرده است.
🌍 در صورت ادامه این مسیر، جهان ممکن است با یک «دو قطبی فناوری» مواجه شود که در آن استانداردها، پلتفرمها و حتی جریان دادهها از هم جدا خواهند شد.
⚠️ این شکاف میتواند همکاریهای بینالمللی را کاهش داده و سرعت پیشرفت فناوری را در برخی حوزهها محدود کند.
✅واحد هوش مصنوعی مؤسسه مصاف
🆔 @Masaf_Ai