eitaa logo
پژوهشگاه فضای‌مجازی 'پردیس قم'
2.7هزار دنبال‌کننده
2.9هزار عکس
351 ویدیو
118 فایل
🔴 پژوهشگاه فضای مجازی، پُلی میان پژوهشگران و نخبگان علمی فضای مجازی کشور با سیاست‌گذاران، قانون‌گذاران و مجریان حاکمیتی کشور. 📌 زیر نظر شورای عالی و مرکز ملی فضای مجازی کشور 👤 شناسه پشتیبانی: @QomCsri_admin
مشاهده در ایتا
دانلود
#⃣ ‌ 📌 دوگانه‌های ساختارمند؟ ‌ 🖊 به‌قلم سیدمصطفی یاسری 🖥 پژوهشگاه فضای‌‌مجازی پردیس‌قم 🌍 بازوی خردمند سپهر‌ فناوری 🆔 @QomCsri | صفحات دیگر ما
پژوهشگاه فضای‌مجازی 'پردیس قم'
#⃣ #یادداشت ‌ 📌 دوگانه‌های ساختارمند؟ ‌ 🖊 به‌قلم سیدمصطفی یاسری 🖥 پژوهشگاه فضای‌‌مجازی پردیس‌قم 🌍 ب
1⃣ پلتفرم‌ها در مقام تنظیم‌گران خصوصی: ‌ پلتفرم‌های بزرگ دیجیتال در سال‌های اخیر از نقش سنتی خود به عنوان صرفاً فضایی برای انتشار محتوا عبور کرده و به نوعی «تنظیم‌گر خصوصی» تبدیل شده‌اند. این شرکت‌ها با تعیین قواعد دسترسی و منطق دیده‌شدن، فرآیند تعریف و اجرای نظم عمومی دیجیتال را در سطح جهانی بر عهده گرفته‌اند. این جایگاه باعث شده است که آن‌ها فراتر از یک واسط تجاری، به عنوان بازیگرانی شبه‌حاکمیتی عمل کنند که دارای قوایی مشابه و مجزا شامل تدوین قوانین، اجرای الگوریتم‌ها و نهادهای داوری هستند. ‌ 2⃣ چالشِ «استثنای نفع عمومی» و تفاوت در اجرا: ‌ یکی از مفاهیم محوری در سیاست‌های محتوایی، دکترین «استثنای نفع عمومی» یا «ارزش خبری» است. بر اساس این اصل، محتوای مقامات سیاسی حتی در صورت تعارض با برخی قواعد، به دلیل اهمیت آگاهی شهروندان حذف نمی‌شود. با این حال، تحلیل عملکرد پلتفرم‌ها در سال‌های ۲۰۲۴ تا ۲۰۲۶ نشان‌دهنده تفاوت در نحوه اعمال این استثنا است. در حالی که پیام‌های بحث‌برانگیز برخی مقامات غربی تحت پوشش ارزش خبری مصون باقی می‌ماند، حساب‌های مقامات ایرانی اغلب با تعلیق یا حذف دائمی روبرو می‌شوند. این تضاد رفتاری می‌تواند نشان‌دهنده این باشد که مفهوم نفع عمومی در پلتفرم‌ها، تا حد زیادی متأثر از اولویت‌های سیاسی و امنیتی است. ‌ 3⃣ ریشه‌های ساختاری و حقوقی تبعیض تفاوت برخورد با مقامات سیاسی صرفاً یک انتخاب نیست، بلکه ریشه در عوامل ساختاری و پیوندهای حقوقی پلتفرم‌ها با دولت‌های میزبان نیز (به‌ویژه ایالات متحده) دارد. قوانین داخلی آمریکا نظیر رژیم حقوقی تحریم‌های وزارت خزانه‌داری (OFAC)، پلتفرم‌ها را وادار به اتخاذ رویکردی موسوم به «بیش‌سانسوری» در قبال کشورهای تحت تحریم کرده است. در این چارچوب، محتوای نهادهای رسمی ایران عموما در قالب «سازمان‌های خطرناک» بازتعریف می‌شود. این وضعیت باعث شده است که زیرساخت‌های ارتباطی جهانی به بخشی از ابزارهای فشار سیاسی تبدیل شوند. ‌ 4⃣ مدیریتِ دیده‌شدن و سانسور الگوریتمی: ‌ استاندارد دوگانه تنها در حذف کامل حساب‌ها خلاصه نمی‌شود، بلکه در پدیده‌هایی پیچیده‌تر مانند «مدیریت دیده‌شدن» نهفته شده است. پلتفرم‌ها با استفاده از ابزارهایی مانند تعلیق نامحسوس (Shadow-banning) یا کاهش دسترسی الگوریتمی، بدون حذف فیزیکی محتوا، میزان اثرگذاری پیام‌های مقامات و حساب‌های ایرانی را تا حد زیادی کاهش می‌دهند. این مهندسی نامرئی جریانات، باعث می‌شود که روایت‌های رسمی یک کشور در لحظاتی حساس بایکوت شده و فضای کافی برای روایت‌های رقیب فراهم گردد. ‌ 5⃣ تقابل با اصول حقوق بین‌الملل: ‌ اقدامات پلتفرم‌ها در محدودسازی حساب‌های رسمی، ممکن است با برخی اصول و اسناد حقوق بین‌الملل در چالش باشد. به عنوان مثال، کنوانسیون ۱۹۶۱ وین بر مصونیت ارتباطات رسمی و مکاتبات دیپلماتیک تأکید دارد. تعلیق حساب‌های رسمی نشان می‌دهد که پلتفرم‌ها عملاً «مصونیت دیپلماتیک دیجیتال» را به رسمیت نمی‌شناسند و این ممکن است برخلاف این عرف بین‌المللی باشد. همچنین، می‌توان استدلال نمود که اعمال قوانین داخلی یک کشور بر مقامات رسمی سایر کشورها در بستر یک پلتفرم جهانی، با اصل «برابری حاکمیت‌ها» در تعارض است. 🔻در نهایت، مجموعه این شواهد حکایت از وجود نوعی «استاندارد دوگانه ساختارمند» دارد که در آن کدهای الگوریتمی بر جای قواعد یکسان نشسته‌اند. در این وضعیت که بعضا متاسفانه با اعمال محدودیت‌ها و سانسور داخلی نیز تشدید می‌شود، راه حل نه در قهر کامل با این فضا و انسداد آن، که کاشف از ضرورت حرکت به سمت «چندجانبه‌گرایی زیرساختی» و ایجاد ائتلاف‌های نوین (مانند بریکس و پیمان شانگهای) جهت تدوین استانداردهای حکمرانی دیجیتال است. هدف نهایی، عبور از تک‌صدایی دیجیتال به سمت یک فضای عمومی کثرت‌گرا است که در آن زیرساخت‌های شناخت، ابزاری برای اعمال فشار سیاسی نباشند و هیچ صدایی، حتی صدای مخالف قطع نشود و میزان، قانون و عدالت باشد. ‌ 🖥 پژوهشگاه فضای‌‌مجازی پردیس‌قم 🌍 بازوی خردمند سپهر‌ فناوری 🆔 @QomCsri | صفحات دیگر ما
#⃣ ‌ 📌 عجیب‌ترین کار این روزهای جهان: آموزش ربات‌هایی که ممکن است روزی شما را بیکار کنند! ‌ 🔻 در ده‌ها کشور یک شغل پاره‌وقت عجیب اما رو‌به‌رشدی شکل گرفته است: افرادی که یک آیفون بالای سر خود می‌بندند و هنگام انجام کارهای ساده خانه، از تا کردن لباس گرفته تا شستن ظرف‌ها و خرد کردن پیاز، از خود فیلم می‌گیرند. این ویدئوها سپس فریم‌به‌فریم بررسی می‌شوند تا به روبات‌های انسان‌نما یاد دهند چگونه مانند انسان حرکت کنند. به گزارش MIT Technology Review، ثبت ویدئو از کارهای روزمره در خانه اکنون به یکی از سریع‌ترین بخش‌های در حال رشد اقتصاد گیگ تبدیل شده و در حال تغییر تعریف «کار پاره‌وقت» در عصر هوش مصنوعی است. 🖥 پژوهشگاه فضای‌‌مجازی پردیس‌قم 🌍 بازوی خردمند سپهر‌ فناوری 🆔 @QomCsri | صفحات دیگر ما
پژوهشگاه فضای‌مجازی 'پردیس قم'
#⃣ #یادداشت ‌ 📌 عجیب‌ترین کار این روزهای جهان: آموزش ربات‌هایی که ممکن است روزی شما را بیکار کنند! ‌
🔻 دلیل این روند، رقابت شدید شرکت‌ها برای ساخت روبات‌های انسان‌نماست. شرکت‌هایی مانند تسلا، Figure AI و Agility Robotics میلیاردها دلار برای توسعه روبات‌هایی سرمایه‌گذاری کرده‌اند که بتوانند مانند انسان راه بروند، اشیا را در دست بگیرند و در محیط‌های واقعی کار کنند. اما ساخت سخت‌افزار تنها نیمی از مسیر است؛ این ماشین‌ها برای یادگیری به حجم عظیمی از داده‌های حرکتی واقعی نیاز دارند، داده‌هایی که نمی‌توان به‌راحتی در آزمایشگاه تولید کرد. ‌ 🔻 بر خلاف مدل‌های زبانی که با متن‌های اینترنتی آموزش می‌بینند، روبات‌های انسان‌نما به داده‌هایی نیاز دارند که تماس واقعی با اشیا را نشان دهد: دست‌هایی که ظرف را می‌گیرند، لباس را تا می‌کنند یا وسایل را جابه‌جا می‌کنند. همین نیاز باعث شده شرکت‌ها به سراغ هزاران کارگر در سراسر جهان بروند تا ویدئوهایی از فعالیت‌های روزمره‌شان جمع‌آوری کنند. ‌ 🔻شرکت Micro1، یک کمپانی داده در کالیفرنیا، هزاران کارگر در بیش از ۵۰ کشور استخدام کرده و ویدئوهای کارهای خانگی آنها را به شرکت‌های روباتیک می‌فروشد. Scale AI نیز بیش از ۱۰۰ هزار ساعت داده برای آموزش روبات‌ها جمع‌آوری کرده است. در همین حال، DoorDash با اپلیکیشن جدید DoorDash Tasks به پیک‌های تحویل غذا اجازه می‌دهد در زمان‌های خالی بین سفارش‌ها، با فیلم گرفتن از انجام کارهای ساده خانه درآمد اضافی کسب کنند. ‌ 🔻 برای بسیاری از کارگران در کشورهای در حال توسعه، این کار درآمد قابل توجهی دارد؛ برخی حدود ۱۵ دلار در ساعت دریافت می‌کنند. اما این مدل کاری همان ویژگی‌های بحث‌برانگیز اقتصاد گیگ را نیز دارد: کارگران مستقل‌اند، مزایای شغلی ندارند و اغلب نمی‌دانند داده‌هایی که تولید می‌کنند دقیقاً چگونه استفاده خواهد شد. همچنین نگرانی‌های جدی درباره حریم خصوصی نیز مطرح شده است. ویدئوها داخل خانه‌ها را نشان می‌دهند، از وسایل شخصی گرفته تا سبک زندگی روزمره. و ممکن است همین داده‌های شخصی نیز مورد فروش یا سواستفاده قرار بگیرند. ‌ 🔻 در عین حال، صنعت روبات‌های انسان‌نما با سرعت در حال رشد است. برآوردها نشان می‌دهد ارزش این بازار تا سال ۲۰۲۶ به بیش از ۴ میلیارد دلار می‌رسد و تعداد روبات‌های نصب‌شده در جهان ممکن است تا سال ۲۰۲۷ به بیش از ۱۰۰ هزار واحد برسد. دلیل نیاز شدید به داده نیز روشن است: روبات‌ها باید در دنیای واقعی، در محیط‌های نامرتب، نور کم و با اشیای متفاوت کار کنند، محیطی که بسیار پیچیده‌تر از آزمایشگاه است. ‌ 🔻 در نهایت، این روند پارادوکسی جالب ایجاد کرده است: کارگران امروز با ثبت حرکات خود، در حال آموزش ماشین‌هایی هستند که ممکن است در آینده همان کارها را بدون حضور انسان انجام دهند. در عین حال، همین فرایند دسته‌ای تازه از مشاغل، از ثبت داده و برچسب‌گذاری تا نظارت بر کیفیت داده‌های روباتیک، را نیز ایجاد کرده است. برای بسیاری از ناظران بازار کار، این نشانه‌ای از آینده‌ای است که در آن همکاری انسان و روبات، شکل تازه‌ای از اقتصاد کار را رقم خواهد زد. ‌ 🔗 منبع 🖥 پژوهشگاه فضای‌‌مجازی پردیس‌قم 🌍 بازوی خردمند سپهر‌ فناوری 🆔 @QomCsri | صفحات دیگر ما
#⃣ ‌ 📌 سیلیکون‌ولی و واتیکان: کلیسای کاتولیک برای مهار اخلاقی هوش مصنوعی دست به کار شده است. ‌ ‌ 🔻 گزارش جدید الیاس واچتل در خبرگزاری آتلانتیک، پرده از رابطه‌ای کم‌سابقه و در حال گسترش برداشته است: همکاری میان بزرگ‌ترین چهره‌های هوش مصنوعی در سیلیکون‌ولی و کلیسای کاتولیک. این رابطه که از سال ۲۰۱۶ و با برگزاری نشست‌های محرمانه «گفت‌وگوهای مینروا» در واتیکان آغاز شد، اکنون به یکی از مهم‌ترین عرصه‌های گفت‌وگوی اخلاقی درباره آیندهً AI تبدیل شده است؛ گفت‌وگویی میان قدیمی‌ترین نهاد مذهبی جهان و سازندگان فناوری‌هایی که به «قدرت خدایان» تشبیه می‌شوند. 🖥 پژوهشگاه فضای‌‌مجازی پردیس‌قم 🌍 بازوی خردمند سپهر‌ فناوری 🆔 @QomCsri | صفحات دیگر ما
پژوهشگاه فضای‌مجازی 'پردیس قم'
#⃣ #یادداشت ‌ 📌 سیلیکون‌ولی و واتیکان: کلیسای کاتولیک برای مهار اخلاقی هوش مصنوعی دست به کار شده است
. 🔻 نویسنده نشان می‌دهد که هر دو طرف از این همکاری سود می‌برند. شرکت‌های فناوری، با بحران شدید اعتماد عمومی روبه‌رو هستند و هم‌نشینی با رهبران کاتولیک را راهی برای نشان‌دادن جدیت اخلاقی خود می‌دانند. کلیسا نیز پس از دهه‌ها افول نفوذ، این فرصت را راهی برای بازپس‌گیری اعتبار اخلاقی‌اش می‌بیند و تلاش می‌کند نشان دهد که بحث‌های اخلاقیِ عمیق درباره کرامت انسان، مسئولیت، بدن‌مندی و معنای زندگی بدون سنت دینی کامل نمی‌شود. ‌ 🔻 در گفت‌وگوهای مینروا، کاتولیک‌ها معمولاً سؤالات اساسی‌تری مطرح می‌کنند: آیا انسان «حق دارد» فقط توسط انسان قضاوت شود؟ آیا هوش بی‌جسم سیلیکون‌ولی با فهم انسانیِ کرامت سازگار است؟ همین نگاه باعث شده برخی چهره‌های برجسته فناوری، از رید هافمن تا جرون لنیِر، کلیسا را «صدای عقلانیت عمومی» ببینند؛ صدایی که گاه بسیار دورتر از جهان‌بینی فناورانهً خودشان است. ‌ 🔻 این اثرگذاری تنها محدود به نظریات نمانده است. شرکت آنتروپیک سه متفکر کاتولیک را در تدوین «قانون اساسی» مدل کلود دخیل کرده و حتی ایده‌هایی مانند مفهوم «بخشش» در اخلاق کاتولیکی وارد روند تربیتی مدل‌ها شده است. کلیسا نیز همزمان شبکه‌هایی مانند DELTA را برای آموزش اخلاقیِ سازندگان و کاربران AI ایجاد کرده است. ‌ 🔻 با این حال، شکاف‌ها همچنان پابرجاست: برخی کاتولیک‌ها نگران تأثیرات انسانی‌زدای AI هستند و شماری از رهبران فناوری، نگاه انتقادی کلیسا را مزاحم نوآوری می‌دانند. با وجود این تنش‌ها، روایت گزارش روشن است: کلیسا قصد توقف AI را ندارد؛ می‌خواهد آن را هدایت کند، و سیلیکون‌ولی، برخلاف گذشته، در حال گوش دادن است. 🔗 منبع 🖥 پژوهشگاه فضای‌‌مجازی پردیس‌قم 🌍 بازوی خردمند سپهر‌ فناوری 🆔 @QomCsri | صفحات دیگر ما
#⃣ ‌ 📌 نبرد بر سر قدرتمندترین فناوری جهان: آیا دولت آمریکا امکان ملی‌سازی AI را دارد؟ ‌ 🔻 متئو وانگ و لیلا شراف، در آخرین مقاله خود در آتلانتیک به این سناریو پاسخ داده‌اند که اگر دولت ترامپ تصمیم بگیرد کنترل بیشتری بر شرکت‌های هوش مصنوعی اعمال کند، یا حتی آن‌ها را ملی کند، ممکن است چه اتفاقی بیفتد. ایده ملی‌سازی AI تا چند سال پیش بیشتر شبیه یک سناریوی فرضی بود، اما با افزایش قدرت مدل‌های پیشرفته و نگرانی‌های امنیتی، اکنون به‌طور جدی در واشنگتن بررسی می‌شود. برخی سیاست‌گذاران حتی احتمال اجرای نوعی «پروژه منهتن برای هوش مصنوعی» را مطرح کرده‌اند؛ برنامه‌ای دولتی برای توسعه هوش جامع مصنوعی (AGI). 🖥 پژوهشگاه فضای‌‌مجازی پردیس‌قم 🌍 بازوی خردمند سپهر‌ فناوری 🆔 @QomCsri | صفحات دیگر ما
پژوهشگاه فضای‌مجازی 'پردیس قم'
#⃣ #یادداشت ‌ 📌 نبرد بر سر قدرتمندترین فناوری جهان: آیا دولت آمریکا امکان ملی‌سازی AI را دارد؟ ‌ 🔻 م
🔻 یکی از ابزارهای بالقوه دولت «قانون تولید دفاعی» (Defense Production Act) است؛ قانونی از دوران جنگ سرد که به دولت اجازه می‌دهد در شرایط خاص شرکت‌ها را مجبور کند فناوری یا ظرفیت تولیدشان را در اختیار دولت قرار دهند. این احتمال پس از آن جدی‌تر شد که شرکت آنتروپیک مدلی به نام Claude Mythos معرفی کرد که توانایی انجام حملات سایبری پیچیده در سطح گروه‌های هکری دولتی را دارد. چنین قابلیت‌هایی نگرانی‌هایی ایجاد کرده که شرکت‌های خصوصی ممکن است به قدرتی هم‌سطح نهادهای اطلاعاتی مانند CIA یا NSA دست پیدا کنند. ‌ 🔻 با این حال، ملی‌سازی کامل صنعت AI، یعنی قرار دادن پژوهشگران در مراکز امنیتی پنتاگون و متمرکز کردن تمام محاسبات در یک پروژه دولتی، احتمالاً غیرقانونی و بسیار پرهزینه خواهد بود. دولت باید برای تصاحب شرکت‌هایی که مجموع ارزششان به تریلیون‌ها دلار می‌رسد غرامت بپردازد، و همچنین ممکن است بسیاری از پژوهشگران خارجی را از دست بدهد. ‌ 🔻 سناریوی محتمل‌تر نوعی «ملی‌سازی نرم» است: دولت بدون تصاحب کامل شرکت‌ها، قوانین سخت‌گیرانه‌تری وضع می‌کند و همکاری نزدیکی با شرکت‌هایی مانند آنتروپیک، OpenAI و Google DeepMind ایجاد می‌کند. این فرایند می‌تواند شامل نظارت دولتی، طبقه‌بندی برخی تحقیقات به‌عنوان محرمانه، کنترل صادرات فناوری، یا حضور ناظران دولتی در شرکت‌ها باشد، مشابه نظارتی که بر نیروگاه‌های هسته‌ای اعمال می‌شود. ‌ 🔻 در عمل نیز احتمالا چنین روندی از همین حالا آغاز شده است؛ از قراردادهای نظامی شرکت‌های AI با پنتاگون گرفته تا سرمایه‌گذاری دولت در شرکت‌های نیمه‌رسانا. با این حال، نویسندگان هشدار می‌دهند که سپردن آیندهً هوش مصنوعی هم به شرکت‌های خصوصی قدرتمند و هم به دولتی متمرکز و غیرقابل پیش‌بینی، هر دو خطرناک‌اند. چالش اصلی قرن بیست‌ویکم ممکن است یافتن تعادلی میان قدرت سیلیکون‌ولی و قدرت دولت باشد. ‌ 🔗 منبع ‌ 🖥 پژوهشگاه فضای‌‌مجازی پردیس‌قم 🌍 بازوی خردمند سپهر‌ فناوری 🆔 @QomCsri | صفحات دیگر ما
#️⃣ | 🔰 بازدید اعضای پژوهشگاه فضای مجازی پردیس قم، از خانواده شهیدان عسکرپور و احمدیان؛ «شهدای گرانقدر جنگ تحمیلی سوم» 🖥 پژوهشگاه فضای‌‌مجازی پردیس‌قم 🌍 بازوی خردمند سپهر‌ فناوری 🆔 @QomCsri | صفحات دیگر ما