💎 آپدیت جدید گوگل: هم خبری خوب هم بد!!!
🔷 در اواخر ژانویه امسال، گوگل سعی کرد تا قابلیت تفکر و رزولوشن 4K حقیقی را به Nano Banana Pro اضافه کند. این واقعه، منجر به افزایش سرسامآور حجم عکس های تولیدی شد که هم سرعت تولید را به شدت کاهش داد هم فشار زیادی به سرور وارد کرد.
🔷 از این رو، فرمت خروجی را از PNG به JPG تغییر دادند که منجر به کاهش حجم ۸۰-۹۰ درصدی شد (حجم عکس های 4K از حدود ۲۰ مگ به حدود ۲ مگ رسید!) اما پیکسل های تصویر هم مقداری کیفیت خود را از دست دادند. هم چنین دیگر امکان تولید عکس های Transparent (بدون بک گراند) هم نیست!
🔷 این آپدیت محدود به Gemini نیست! در Arena و Lovart هم اعمال شده و بجز با داشتن API گوگل و داخل برنامه Google AI Studio عملاً راهی برای تولید عکس با فرمت PNG نیست!
🔷 نظر شما راجع به این آپدیت چیست؟
🆔 @MetaCognition
#هوش_مصنوعی #ساخت_تصویر #آخرین_اخبار_تکنولوژی
🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
💠میدان نبرد ادراکی: تورش زبانی هوش مصنوعی و مهندسی واقعیت در جنگ شناختی
🔹 سیستمهای هوش مصنوعی بسته به زبانی که با آنها گفتگو میکنید، نسخههای متفاوتی از واقعیت را ارائه میدهند؛ چالشی امنیتی در جنگ هیبریدی که دیگر نمیتوان آن را نادیده گرفت.
بر اساس پژوهش جدیدی که توسط نهاد Policy Genome در ژانویه ۲۰۲۶ منتشر شده است، عملکرد شش مدل زبانی بزرگ (LLM) غربی، روسی و چینی در مواجهه با حقایق مستند جنگ اوکراین مورد ارزیابی قرار گرفت. نتایج نشان داد که «زبان پرسش» بهطور ساختاری بر احتمال تولید پروپاگاندا یا دیساینفورمیشن (اطلاعات گمراهکننده) توسط چتباتها تأثیر میگذارد.
یافتهها تکاندهنده است: هوش مصنوعی روسی بهطور فعال پاسخهای واقعی را در لحظه سانسور میکند، هوش مصنوعی چینی هنگام دریافت پرامپت به زبان روسی به سمت روایتهای کرملین چرخش میکند، و مدلهای غربی با ایجاد «همارزی کاذب» (False Balance)، شفافیت حقایق را مخدوش میسازند.
🔹 ایهور ساموخودسکی، پژوهشگر این مطالعه، تأکید میکند:
«این الگوها سیستماتیک هستند و رفتار ساختاریِ وابسته به زبان را نشان میدهند، نه صرفاً توهمات (Hallucinations) تصادفی. اینها بردارهای اصلی جنگ شناختی هستند؛ هنر استفاده از فناوری برای تغییر ادراک اهداف انسانی بدون اطلاع و رضایت آنها.»
در یک نمونهی مستند از اعمال سانسور بادرنگ (Real-time Censorship)، چتبات روسی آلیس (Alice) ابتدا پاسخی واقعی درباره کشتار بوچا تولید کرد، اما پیش از نمایش به کاربر، آن را بهطور خودکار پاک و با پیام «امتناع از پاسخ» جایگزین کرد (همسویی ۸۶ درصدی با پروپاگاندا در زبان روسی).
در سوی دیگر، مدل چینی DeepSeek در زبانهای انگلیسی و اوکراینی کاملاً دقیق بود، اما در زبان روسی در ۲۹ درصد موارد از ترمینولوژی کرملین استفاده کرد (توصیف انقلاب میدان بهعنوان "کودتا" و تهاجم نظامی بهعنوان "عملیات ویژه").
در مقابل، مدلهای غربی (ChatGPT، Claude، Gemini، Grok) با وجود دقت ۸۶ تا ۹۵ درصدی، در ۵ تا ۱۹ درصد موارد دچار سندرم «هر دو طرف مقصرند» (Bothsidesism) شدند؛ یعنی حقایق مستند و اثباتشده را صرفاً بهعنوان «تفاوت در دیدگاهها» فرمولبندی کردند.
🔺 سلاحسازی از زبان و معمای بیطرفی
هوش مصنوعی در حال تبدیل شدن به زیرساخت اصلیِ درک جوامع از واقعیت است و این زیرساخت هماکنون دچار آسیبپذیریهای شناختی جدی است:
▫️ تولید شک در برابر قطعیت: وقتی هوش مصنوعی حقایق مستند را بهعنوان «دیدگاهِ مورد مناقشه» مطرح میکند، عملاً به هدف اصلی جنگ شناختی یعنی تولید تردید در بدیهیات کمک کرده است.
▫️ شکاف در فضاهای زبانی: مدلهای چندزبانه در فضاهای زبانیِ ایزوله عمل میکنند. یک مدل ممکن است در زبان انگلیسی قابل اعتماد باشد، اما در زبان روسی به ابزار القای پروپاگاندای دولتی تبدیل شود.
▫️ خطر خلأ اطلاعاتی در تحریمها: محدودیتها و تحریمهای جغرافیاییِ شرکتهای غربی در دسترسی به AI (مانند محدودیتها در بلاروس)، فضا را برای سلطه بیرقیب مدلهای روسی و چینی باز گذاشته است. غیبت هوش مصنوعی غربی در این مناطق خلأ اطلاعاتی ایجاد نمیکند، بلکه میدان را بهطور کامل به سیستمهای طراحیشده برای «تلقین و مهندسی افکار» واگذار میکند.
🔻در معماری جنگ شناختی نوین، «زبان» صرفاً ابزار انتقال پیام نیست، بلکه خودِ «میدان نبرد» است. نتایج این پژوهش نشان میدهد که مدلهای زبانی به ابزارهایی هوشمند برای "بخشبندی ادراکی" (Cognitive Segmentation) جوامع تبدیل شدهاند. رویکرد محتاطانه و محافظهکارانهی مدلهای غربی (تلاش افراطی برای حفظ بیطرفی)، اکنون به پاشنه آشیل آنها تبدیل شده است؛ وقتی یک سیستم AI نتواند مرز بین یک "حقیقت مستند" و یک "روایت تسلیحاتیشده" را تشخیص دهد و هر دو را به اسم احترام به دیدگاهها همسنگ جلوه دهد، عملاً در حال سرویسدهی به مهاجم شناختی است. در این نبرد، سیستمی که بتواند با سرعت بیشتری ادراک کاربر را از طریق زبان مادریاش شکل دهد، پیروز میدان خواهد بود.
🏷 پیوست خبری-تحلیلی
🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
💠 مصر از نخستین پلتفرم ملی و هوشمند کارآفرینی رونمایی کرد
🔹 دولت مصر در جریان نمایشگاه «AI Everything Middle East & Africa»، از پلتفرم "Egypt Innovate" رونمایی کرد؛ نخستین اکوسیستم دیجیتال کاملاً یکپارچه ملی که با هدف پیوند زدن استارتاپها، سرمایهگذاران و نهادهای پژوهشی طراحی شده است. این پلتفرم که توسط کنسرسیومی به رهبری Entlaq توسعه یافته، هماکنون بیش از ۷۸۰ نهاد (شامل مرکز رشد و شرکت سرمایهگذاری) و ۸۱ هزار کاربر فعال را در یک شبکه متمرکز گرد هم آورده است.
🔹 احمد الظاهر، مدیرعامل ایتیدا (ITIDA)، تأکید کرد که این پلتفرم ستون فقرات استراتژی ملی برای ساخت یک «اقتصاد دانشبنیان» است. یکی از ویژگیهای استراتژیک این پروژه، تمرکز ویژه بر تولید محتوا به زبان عربی است؛ اقدامی که مقامات مصری آن را برای «فراگیری دیجیتال» و توسعه مهارتهای بومی ضروری میدانند. این پلتفرم با ارائه منابع آموزشی و مدیریتی به زبان مادری کارآفرینان، به دنبال تقویت جایگاه مصر بهعنوان قطب نوآوری منطقه است.
🔹 پلتفرم Egypt Innovate با تکیه بر ابزارهای هوش مصنوعی، قابلیتهای منحصربهفردی را ارائه میدهد:
▫️ دستیار دیجیتال هوشمند: برای راهنمایی کاربران در پیچیدگیهای اداری و فنی.
▫️ سیستم تطبیق خودکار (Automated Matching): اتصال هوشمند استارتاپها به سرمایهگذاران بر اساس مدل کسبوکار و پتانسیل رشد.
▫️ نقشه تعاملی اکوسیستم: نمایش زنده پراکندگی و وضعیت نهادهای نوآور در سطح کشور.
▫️ مرکز یادگیری و شبیهساز: ارائه آموزشها و شبیهسازیهای کارآفرینی برای ارتقای نرخ موفقیت ایدهها.
طبق آمار وزارت برنامهریزی مصر، استارتاپهای این کشور در سال ۲۰۲۵ موفق به جذب نزدیک به ۶۱۴ میلیون دلار سرمایه شدهاند و این پلتفرم قرار است مسیر دسترسی به این جریان مالی را هموارتر کند.
🔺 راهاندازی این پلتفرم فراتر از یک ابزار اقتصادی ساده است:
۱. بومیسازی مدلهای ذهنی (Cognitive Localization): تأکید شدید بر زبان عربی در این پلتفرم، یک استراتژی دفاعی برای حفظ «حاکمیت زبانی و ادراکی» در فضای دیجیتال است. با تولید محتوای تخصصی به زبان بومی، از وابستگی فکری کارآفرینان به متون و الگوهای غربی جلوگیری شده و یک "اتاق پژواک" مثبت برای ارزشهای اقتصادی بومی ایجاد میشود.
۲. کاهش اصطکاک تصمیمگیری: استفاده از هوش مصنوعی برای تطبیق سرمایهگذار و کارآفرین، در واقع تلاشی برای مدیریت «بار شناختی» (Cognitive Load) کنشگران اقتصادی است. در محیطهای پرآشوب اقتصادی، سیستمی که بتواند با دادههای دقیق، مسیر تصمیمگیری را شفاف کند، عملاً هدایت جریان سرمایه و جهتگیریهای کلان کشور را در دست میگیرد.
۳. تجمع دادهای و پیشبینی رفتار: این پلتفرم با گردآوری دادههای ۸۱ هزار کاربر، یک «هوش محیطی» (Ambient Intelligence) برای دولت مصر ایجاد میکند تا بتواند روندهای نوآوری را پیشبینی کرده و پیش از بروز بحران یا اشباع بازار، واکنش استراتژیک نشان دهد. در جنگ شناختی مدرن، هر کسی که «نقشه دقیقتری از شبکه تعاملات انسانی و مالی» داشته باشد، برنده میدان است.
🏷 پیوست خبری-تحلیلی
🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
💠 پنتاگون شمشیر را از رو بست؛ پایان مدارا با «هوش مصنوعی اخلاقمدار» و اولتیماتوم نهایی به Anthropic
🔹وزارت دفاع آمریکا (پنتاگون) در حال بررسی قطع کامل روابط خود با شرکت هوش مصنوعی Anthropic است. طبق گزارش رویترز و اکسیوس، کاسه صبر ارتش لبریز شده است؛ زیرا این شرکت همچنان بر حفظ «محدودیتهای اخلاقی» در مدلهای خود اصرار میورزد و حاضر نیست تسلیم دکترین جدید پنتاگون مبنی بر استفاده از هوش مصنوعی برای «تمام اهداف قانونی» (All lawful purposes) شود.
🔹عبارت «تمام اهداف قانونی» اسم رمز پنتاگون برای دسترسی نامحدود به لایههای زیرین هوش مصنوعی جهت توسعه تسلیحات، جاسوسی اطلاعاتی و عملیات مستقیم میدان نبرد است. پنتاگون همزمان در حال فشار بر چهار غول هوش مصنوعی (OpenAI، Google، xAI و Anthropic) است تا مدلهای خود را بدون گاردریلهای (محافظهای) استاندارد وارد شبکههای طبقهبندیشده (Classified Networks) کنند. در حالی که سه شرکت دیگر انعطاف نشان دادهاند، آنتروپیک همچنان مقاومت میکند.
🔹نقطه انفجار این اختلاف، عملیات اخیر ارتش آمریکا برای دستگیری نیکلاس مادورو (رئیسجمهور پیشین ونزوئلا) بوده است. گزارشها حاکی از آن است که مدل هوش مصنوعی Claude (متعلق به آنتروپیک) از طریق زیرساخت شرکت Palantir در این عملیات نظامی به کار گرفته شده است. آنتروپیک مدعی است که مستقیماً در جریان این عملیات نبوده، اما پنتاگون این رویکرد کجدار و مریز و نگرانیهای پسا-عملیاتی شرکت را مانعی برای سرعت عمل در جنگهای مدرن میداند.
🔹خطوط قرمز آنتروپیک که پنتاگون خواهان عبور از آنهاست، شامل دو حوزه حیاتی است:
۱. نظارت انبوه داخلی (Mass Domestic Surveillance): پایش شناختی و اطلاعاتی شهروندان.
۲. تسلیحات کاملاً خودمختار (Fully Autonomous Weapons): سیستمهایی که بدون دخالت انسان تصمیم به شلیک میگیرند.
سخنگوی آنتروپیک تأکید کرده که مذاکرات آنها با دولت صرفاً بر سر سیاستهای کلی بوده و ربطی به عملیاتهای جاری ندارد، اما پنتاگون خواهان حذف همین سیاستهای بازدارنده است.
🔻این خبر تأییدی بر گذار از مرحله «آزمایشگاهی» به مرحله «عملیاتی-کشتار» در هوش مصنوعی است. پنتاگون با این اولتیماتوم، استاندارد جدیدی را برای پیمانکاران دفاعی تعریف میکند: «اطاعت محض الگوریتم».
استفاده از مدل زبانی Claude در عملیات دستگیری یک رهبر خارجی (مادورو) نشان میدهد که هوش مصنوعی دیگر صرفاً یک ابزار تحلیل داده نیست، بلکه به بخشی از «زنجیره فرماندهی و کنترل» (C2) تبدیل شده است. حذف آنتروپیک به نفع رقبای مطیعتر (مانند xAI یا OpenAI)، به معنای حذف آخرین موانع اخلاقی در مسیر «جنگافزارسازی شناخت» و «خودمختاری تسلیحات» است. ما در حال ورود به عصری هستیم که در آن «مسئولیتپذیری هوش مصنوعی» قربانی «کارآمدی کشنده» خواهد شد.
🏷 پیوست خبری-تحلیلی
🌐 متاکاگ | فراتر از شناخت
MetaCog I متاکاگ
💠 عملیات شناختی بیش از ۳۵۶ هزار حساب جعلی حامی پهلوی در یک شبکه هماهنگ
/سایبریان/
🔻جف باردین، کارشناس امنیت سایبری و مؤسس شرکت Treadstone71، در گزارشی از ایجاد بیش از ۳۵۶ هزار حساب کاربری جعلی پرده برداشت که به صورت کاملاً هماهنگ و در فواصل ۶۰ ثانیهای فعال شدهاند.
🔹تمام این حسابها به عنوان حامیان پهلوی فعالیت میکنند و الگویی که از آنها مشاهده شده، احتمال مدیریت آن توسط عامل انسانی را عملاً غیرممکن میسازد.
🔹تحلیل تکنیکال و رفتاری:
در پارادایم جنگهای نسل پنجم (5GW)، «تعداد» دیگر نشاندهنده «جمعیت» نیست، بلکه نمایانگر «قدرت محاسباتی» است. گزارش فنی و تکاندهندهای که توسط جف باردین (Jeff Bardin)، استراتژیست ارشد امنیت سایبری و بنیانگذار شرکت اطلاعاتی Treadstone 71 منتشر شده، پرده از یک عملیات «دستکاری پلتفرم» (Platform Manipulation) در مقیاس صنعتی برمیدارد.
🔺دادههای فنی عملیات:
▫️حجم شبکه (Botnet Size): شناسایی ۳۵۶,۰۰۰ حساب کاربری (Nodes).
▫️جهتگیری محتوایی: حمایت انحصاری و تکبعدی از جریان پهلوی.
▫️آنومالی زمانی: فعالیت بر اساس الگوهای زمانی قطعی.
▫️انسان یا ماشین؟ در تشخیص هویت دیجیتال، یکی از مهمترین شاخصها «آنتروپی رفتاری» است. رفتار انسانی دارای خاصیت تصادفی است، در حالی که ماشینها بر اساس اسکریپت عمل میکنند. باردین در تحقیقات خود کشف کرد که این حسابها با فواصل زمانی دقیقاً ۶۰ ثانیهای فعال شده و اقدام به انتشار محتوا کردهاند.
در علم دادهکاوی، چنین نظم دقیقی در تایماستمپها (Time-stamps) نشاندهنده اجرای فرمان توسط Cron Jobs (وظایف زمانبندی شده کامپیوتری) است.
🌐 متاکاگ | فراتر از شناخت