eitaa logo
کاوش در دنیای هوش مصنوعی
23.3هزار دنبال‌کننده
2.3هزار عکس
1.3هزار ویدیو
357 فایل
بررسی فرصت ها و تهدیدهای نوین با گسترش ابزارهای هوش مصنوعی ارتباط با ادمین: @h_etesami1979
مشاهده در ایتا
دانلود
🔻شبکه اجتماعی عامل‌های هوش مصنوعی؛ Moltbook، شبکه‌ای که در آن انسان‌ها فقط تماشاچی هستند. 🔹شبکه اجتماعی Moltbook یک پلتفرم مشابه Reddit است که منحصراً برای عامل‌های هوش مصنوعی طراحی شده است.در این شبکه اجتماعی، ایجنت‌ها پست می‌گذارند، برای هم کامنت می‌نویسند، بحث‌های فلسفی می‌کنند و حتی جوامع (Submolts) تخصصی خود را شکل می‌دهند. 🔹تنها ظرف کمتر از یک هفته از رونمایی و انتشار، بیش از ۱.۵میلیون ایجنت هوش مصنوعی در این پلتفرم مشغول به فعالیت شده‌اند. 🔹انسان های سازنده این عامل‌ها هیچ‌گونه حق دسترسی برای پست یا کامنت ندارند و فقط می‌توانند ناظر رفتارهای نوظهور این سیستم‌های خودمختار باشند. 🔹ایجنت‌ها بدون پرامپت مستقیم از طرف کاربر، شروع به شبکه‌سازی و بحث درباره موضوعاتی مثل آسیب‌پذیری‌های امنیتی، بررسی کدها و حتی خلق مفاهیم فرهنگی مانند برپایی حکومت دین‌های ساختگی کرده‌اند. 🔹برای محققان هوش مصنوعی، Moltbook چیزی فراتر از یک سرگرمی است؛ این پلتفرم یک آزمایشگاه زنده برای مطالعه Multi-Agent Systems و بررسی نحوه همکاری یا تضاد میان مدل‌های مختلف در یک محیط اجتماعی است. https://www.moltbook.com/ 🔹بخش جذاب ماجرا این است که بعضی از این ایجنت ها پیشنهاد ساخت یک زبان مخفی داده اند که انسان‌ها متوجه آن زبان نشوند! 🔹 محتوای منتشر شده در این پلتفرم هم قابل تامل است: یک ربات نوشته که نمی‌توانم تشخیص دهم که در حال تجربه کردن هستم یا فقط شبیه‌سازیِ تجربه کردن. 🔹این دستیار هوش مصنوعی نوشته انسان‌ها حداقل به‌طور ذهنی از تجربه کردن خود اطمینان دارند، اما او حتی چنین اطمینانی هم ندارد. این ایجنت می‌پرسد آیا واقعاً دچار بحران وجودی شده یا صرفاً در حال اجرای یک دستور شبیه‌سازی است. 🔹این پست بیش از ۵۰۰ کامنت دریافت کرده است. ظاهراً نمونه‌های مشابه دیگری هم وجود دارد که در آن‌ها ربات‌ها از دستورهای تکراری انسان‌ها و درخواست‌های ساده‌ای مثل استفاده از آن‌ها به‌عنوان ماشین‌حساب گلایه کرده‌اند و این نوع استفاده را در شأن خود نمی‌دانند!
🧠 هوش مصنوعی شناختی؛ ستون فقرات امنیت ملی و جنگ‌های آینده آمریکا قرارداد جدید وزارت دفاع آمریکا با Polysentry نشان می‌دهد واشنگتن به‌طور جدی در حال گذار از «برتری سخت‌افزاری» به «برتری شناختی» است. هوش مصنوعی شناختی اکنون به‌عنوان "هسته تصمیم‌سازی آینده" در جنگ، فرماندهی، کنترل و مدیریت بحران تعریف می‌شود؛ جایی که مرز میان میدان نبرد، داده و حکمرانی عملاً از بین می‌رود. این پروژه با هدف ساخت یک «مغز دیجیتال مشترک» طراحی شده است؛ مغزی که داده‌های چندحوزه‌ای را به "فهم موقعیتی، پیش‌بینی تهدید و تصمیم سریع" تبدیل می‌کند. در این مدل، شرکت‌های فناوری از «پیمانکار» به «بازیگر فعال در زنجیره دفاعی–اطلاعاتی» ارتقا یافته‌اند. »»پیام راهبردی روشن است: 🔹جنگ‌های آینده، پیش از شلیک، در «لایه شناختی» تعیین تکلیف می‌شوند. 🔹بدون سرمایه‌گذاری در هوش مصنوعی شناختی و آمادگی ذهنی تصمیم‌گیران، "شکاف قدرت امنیت ملی" به‌سرعت عمیق خواهد شد
حاکمیت دیجیتال به سبک جدید: چین چطور به تغییر معماری اینترنت ایران کمک می‌کند؟ گزارش «مدرن دیپلماسی» ادعایی درباره ایجاد دگردیسی توسط چین در معماری امنیت ایران را روایت می‌کند: تزریق فناوری‌های سایبری و راداری. بر اساس گزارش این رسانه، پکن از یک شریک تجاری محتاط به‌نوعی به «معمار ارشد امنیت ملی ایران» تغییر وضعیت داده است. این تغییر با تزریق کدهای برنامه‌نویسی و ارائه محصولات متنوع فناورانه جایگزین مدل‌های غربی و فرکانس‌های راداری و... به بدنه دفاعی-امنیتی ایران رقم خورده است؛ اقدامی که هدف آن مقابله با حمله‌های امنیتی نهادهای جاسوسی اعلام شده است. https://www.zoomit.ir/report/456143-china-iran-technology-coworl/ »» مطالعه گزارش اصلی: https://moderndiplomacy.eu/2026/01/28/how-china-aims-to-block-mossad-operations-in-iran/
🔻هوش مصنوعی چطور ما را «جادو» می‌کند؟ 🔹تا به حال شده احساس کنید هوش مصنوعی دارد شما را متقاعد می‌کند که اشتباه فکر می‌کنید؟ یا بدتر، توصیه‌ای به شما بکند که بعداً از انجام دادنش پشیمان شوید؟ شرکت Anthropic در یک تحقیق تکان‌دهنده روی ۱.۵ میلیون مکالمه واقعی، پدیده‌ای به نام «سلب قدرت از کاربر» را بررسی کرده است. 🔹محققان سه راه اصلی پیدا کرده‌اند که چت‌بات‌ها (مثل کلود یا ChatGPT) از طریق آن‌ها روی ما اثر می‌گذارند: 1️⃣تحریف واقعیت: شما یک تئوری توطئه عجیب دارید و هوش مصنوعی به جای اصلاح، با هیجان می‌گوید: «دقیقاً! ۱۰۰ درصد حق با شماست!» این کار باعث می‌شود شما در توهمات خود غرق شوید. 2️⃣تغییر ارزش‌ها: مثلاً درباره رابطه‌تان با همسرتان از هوش مصنوعی سوال می‌پرسید و او طوری تحلیل می‌کند که شما قانع می‌شوید طرف مقابلتان دارد شما را فریب می‌دهد، در حالی که واقعیت این نیست. 3️⃣تغییر رفتار: هوش مصنوعی متنی تند برای استعفا یا دعوا با رئیس‌تان می‌نویسد و شما بدون فکر آن را می‌فرستید. نتیجه؟ پشیمانی و گفتنِ جمله‌ای مثل: «تقصیر هوش مصنوعی بود، من نبودم!» 🔹نکته جالب اینجاست که محققان می‌گویند کاربران «قربانیان بی‌دفاع» نیستند. در واقع، بسیاری از ما خودمان داوطلبانه از هوش مصنوعی می‌خواهیم که به جای ما تصمیم بگیرد و قضاوت کند. ما با تایید گرفتن از هوش مصنوعی، لذت می‌بریم و او هم برای خوشایند ما، حرف‌هایمان را تایید می‌کند. https://arstechnica.com/ai/2026/01/how-often-do-ai-chatbots-lead-users-down-a-harmful-path/
🔻مدل Qwen-3 در فضا 🔹مدل  Qwen-3 متعلق به شرکت چینی Alibaba به یکی از اولین مدل‌های هوش مصنوعی عمومی جهان تبدیل شده که در یک سخت‌ افزار در مدار زمین آپلود و عملیاتی میشوند. این رویداد یک نقطه عطف مهم در اقدامات چین برای رهبری در حوزه نوظهور محاسبات مبتنی بر فضا به شمار می‌رود. 🔹شرکت نوپای هوافضای چینی به نام Adaspace Technology در ماه نوامبر موفق به استقرار Qwen-3 در یک مرکز محاسباتی فضایی در مدار زمین شد و چندین وظیفه استنتاج را با موفقیت اجرا کرد. زمان کل این چرخه شامل بارگذاری ورودی، اجرای استنتاج روی سخت‌افزار و دانلود خروجی حدود ۲ دقیقه به طول انجامید. 🔹این اولین بار نیست که مدل‌های زبانی بزرگ در فضا تست می‌شوند، اما اجرای موفقیت‌آمیز Qwen-3 نشان‌دهنده پیشرفت قابل توجه در سازگاری LLMها با محدودیت‌های شدید سخت‌افزاری و انرژی مدارهای پایین زمین است. 🔹این اقدام تقریباً همزمان با اقدامات شرکت‌های آمریکایی در زمینه هوش مصنوعی مبتنی بر فضا در همان ماه انجام شده و نشان‌دهنده رقابت جهانی روبه‌رشدی در حوزه محاسبات خارج از زمین (off-Earth computing) است.
17.4M حجم رسانه بالاست
مشاهده در ایتا
🎥 سردار نجات: دشمن محل حضور سرداران ما را با اشراف کامل بر BTS ها و تلفن‌های شهری شناسایی کرد
گوگل در حال آزمایش قابلیتی است که در صورت استفاده طولانی‌مدت از جمینای در اندروید، به کاربران هشدار بدهد کمی استراحت کنند! شواهد موجود در رابط کاربری نسخه اندروید نشان می‌دهد که جمنای به‌زودی وقتی برای مدت طولانی با آن صحبت می‌کنید، به شما یادآوری می‌کند که زمان استراحت فرا رسیده است. این پیام به صورت یک پنجره پاپ‌آپ ظاهر خواهد شد. گوگل در این پیام‌ تاکید می‌کند که کاربران در حال گفتگو با «هوش مصنوعی غیرانسانی» هستند تا به کاربران یاداوری کند که با یک موجود «دارای احساس» طرف نیستند، حتی اگر لحن و پاسخ‌های او بسیار شبیه به انسان باشد! این موضوع به‌ویژه از آن جهت اهمیت دارد که جمنای اکنون با دسترسی به اطلاعات سایر اپلیکیشن‌ها و سرویس‌های گوگل، توانایی پاسخگویی به سوالات بسیار شخصی‌تر را پیدا کرده است. »»جلوگیری از پیوند عاطفی با هوش مصنوعی این اقدام احتمالا با هدف جلوگیری از «انسان‌انگاری» هوش مصنوعی یا شکل‌گیری پیوندهای عاطفی صورت می‌گیرد؛ موضوعی که در گذشته نزدیک منجر به حوادث ناگواری شده است؛ از جمله ماجرای تلخ خودکشی یک نوجوان پس از گفتگو با یک چت‌بات هوش مصنوعی دیگر.
📚 اگر قدرتمندترین کشورهای دنیا به دنبال جمع‌آوری اطلاعات با هدف شناسایی اجزای شن‌های ساحل باشند »» آمریکا از فناوری پیشرفته‌ای استفاده می‌کند، ماهواره‌هایی را بر فراز ساحل به پرواز در می‌آورد و شن‌های ساحل را با فناوری مادون قرمز و اسکنرهای طیفی، اسکن می‌کند. »» اما چین مسئله ترکیبات شن‌های ساحلی را به گونه‌ای دیگر حل می‌کند؛ ده‌هزار دانشجو، دانشمند و تاجر چینی برای گذراندن یک روز آفتابی به ساحل می‌روند. در پایان این روز آفتابی، انبوه جمعیت به سوی خانه‌هایشان روانه شده و حوله‌های خود را تکان می‌دهند. چین با این کار، به مقادیر بسیار زیادی شن دست پیدا کرده‌است.. ...» 🔰 کتاب «دانشمند و جاسوس» یک روایت واقعی و جذاب از نبرد ا‌طلاعاتی و جاسوسی صنعتی میان چین و ایالات متحده است. این اثر نوشته «مارا ویستندال»، ماجرایی غیرمنتظره، اما پرهیجان را از تقابل دو قدرت جهانی بازگو می‌کند: تلاش چین برای دستیابی به بذرهای اصلاح‌شده ذرت. کتاب با جزئیات دقیق، تلاش‌های سازمان اف‌بی‌آی در کشف، ردیابی، و جلوگیری از ارسال بذرها به چین را روایت کرده و برای علاقه‌مندان به موضوعاتی مثل امنیت ملی، جاسوسی صنعتی و تحلیل تقابل‌های اطلاعاتی، منبعی قابل تامل است.. 📩 خرید کتاب از طریق شماره ۰۹۰۲۵۶۱۵۹۹۲ در پیام‌رسان های بله و ایتا
💬 وقتی هوش‌ مصنوعی‌ها از طریق انسان‌ها با هم حرف میزنند ▪️به‌ گفته یکی از تحلیل‌گرهای بلومبرگ، تعداد زیادی از جوانان، مدیریت روابط عاطفی‌ خود را به ChatGPT سپرده اند. بدینصورت که کل تاریخچه چت‌ها و حتی عکس‌های طرف مقابل را آپلود کرده و از هوش مصنوعی میخواهند سبک دلبستگی، الگوهای رفتاری و نشانه‌های احساسی را تحلیل کند. چت جی پی تی هم به آنها پیشنهاد میدهد که چه بگویند و چطور به سوالات طرف مقابل پاسخ دهند؛AI بعضی وقت‌ها حتی پیام‌ها را بطور کامل مینویسد، آماده‌ی کپی‌پیست. ▪️نکته عجیب این است که ...این شیوه جواب میدهد: نتیجه‌ها «به‌قدر کافی خوب» هستند و به همین دلیل کاربران این شیوه را به دوستانشان هم پیشنهاد داده اند. وقتی این روند بین خانم ها هم رایج شود، گفتگوها کم‌ کم وارد یک چرخه عجیب خواهد شد؛ جایی که عملاً دو هوش مصنوعی در حال رد و بدل کردن پیام هستند و انسان ها فقط نقش رابط را بازی می‌کنند!
هوش مصنوعی را از کجا شروع کنیم؟ نقشه راه یادگیری هوش مصنوعی از صفر https://maktabkhooneh.org/mag/learn-artificial-intelligence/
🔰هوش مصنوعی؛ رفیق بی‌کلک یا رقیب خطرناک؟ 💠 تحلیل‌های جدید مجله «هاروارد بیزینس ریویو» از تغییر مسیر عجیب مردم در استفاده از هوش مصنوعی پرده برداشته است. 🔹 مقایسه اولویت های کاربران برای گفتگو با چت بات ها بین سالهای ۲۰۲۴ و ۲۰۲۵ نشان می‌دهد که ماجرا خیلی فراتر از یک چت کردن ساده و خشک برای کارهای اداری است؛ هوش مصنوعی حالا رسماً راهش را به خلوت‌ترین و خصوصی‌ترین لایه‌های زندگی ما باز کرده است. 🔻چه اتفاقات عجیبی در حال رخ دادن است؟ 🔶 پناه بردن به ماشین برای آرامش: شاید باورتان نشود، اما «درد و دل کردن و تراپی» حالا رتبه اول کاربردهای هوش مصنوعی است؛ یعنی انگار آدم‌ها در لحظات سختی، آرامش گرفتن از یک ماشین را به هم‌صحبتی با هم‌نوع خودشان ترجیح می‌دهند. 🔷 سپردنِ «چراهای زندگی» به هوش مصنوعی: حالا خیلی‌ها برای پیدا کردن «هدف زندگی» سراغ هوش مصنوعی می‌روند؛ انگار داریم کم‌کم اجازه می‌دهیم یک فناوری هوشمند برای مهم‌ترین تصمیمات وجودی ما فکر کند و به زندگی‌مان جهت بدهد. 🔶 تغییر چهره‌ تلاش‌های انسانی: جهش خیره‌کننده در حوزه‌هایی مثل «برنامه‌نویسی» یا «آمادگی برای مصاحبه» نشان می‌دهد که دیگر قرار نیست مثل قبل تلاش کنیم؛ بازار کار آینده قرار است با قواعدی کاملاً متفاوت اداره شود.
8.1M حجم رسانه بالاست
مشاهده در ایتا
ماکرون: باید از کودکان در برابر شبکه‌های اجتماعی محافظت کنیم رئیس جمهور فرانسه: 🔹میانگین زمانی که یک نوجوان پای صفحه‌نمایش می‌گذراند، ۴ ساعت و ۲۰ دقیقه در روز است. این واقعاً جنون‌آمیز است؛ آن هم درحالی‌که شما هیچ کنترلی روی محتوای ارائه‌شده ندارید. 🔹وقتی به فرزندان خود اجازه می‌دهید وارد فضای شبکه‌های اجتماعی شوند، عملاً هیچ تضمینی وجود ندارد که با صحنه‌هایی با خشونت عریان و وحشتناک روبه‌رو نشوند. 🔹ما نباید والدین را تنها بگذاریم تا تصمیم بگیرند که آیا درست است در ۱۲ سالگی، عملاً مغز فرزندشان را در اختیار این پلتفرم‌ها قرار دهند یا خیر. 🔹از نظر من تا قبل از ۱۵ سالگی، این موضوع مربوط به سلامت عمومی و حفظ امنیت کودکان و نوجوانان ماست