#⃣ #یادداشت
📌 دوگانههای ساختارمند؟
🖊 بهقلم سیدمصطفی یاسری
🖥 پژوهشگاه فضایمجازی پردیسقم
🌍 بازوی خردمند سپهر فناوری
🆔 @QomCsri | صفحات دیگر ما
پژوهشگاه فضایمجازی 'پردیس قم'
#⃣ #یادداشت 📌 دوگانههای ساختارمند؟ 🖊 بهقلم سیدمصطفی یاسری 🖥 پژوهشگاه فضایمجازی پردیسقم 🌍 ب
1⃣ پلتفرمها در مقام تنظیمگران خصوصی:
پلتفرمهای بزرگ دیجیتال در سالهای اخیر از نقش سنتی خود به عنوان صرفاً فضایی برای انتشار محتوا عبور کرده و به نوعی «تنظیمگر خصوصی» تبدیل شدهاند. این شرکتها با تعیین قواعد دسترسی و منطق دیدهشدن، فرآیند تعریف و اجرای نظم عمومی دیجیتال را در سطح جهانی بر عهده گرفتهاند. این جایگاه باعث شده است که آنها فراتر از یک واسط تجاری، به عنوان بازیگرانی شبهحاکمیتی عمل کنند که دارای قوایی مشابه و مجزا شامل تدوین قوانین، اجرای الگوریتمها و نهادهای داوری هستند.
2⃣ چالشِ «استثنای نفع عمومی» و تفاوت در اجرا:
یکی از مفاهیم محوری در سیاستهای محتوایی، دکترین «استثنای نفع عمومی» یا «ارزش خبری» است. بر اساس این اصل، محتوای مقامات سیاسی حتی در صورت تعارض با برخی قواعد، به دلیل اهمیت آگاهی شهروندان حذف نمیشود. با این حال، تحلیل عملکرد پلتفرمها در سالهای ۲۰۲۴ تا ۲۰۲۶ نشاندهنده تفاوت در نحوه اعمال این استثنا است. در حالی که پیامهای بحثبرانگیز برخی مقامات غربی تحت پوشش ارزش خبری مصون باقی میماند، حسابهای مقامات ایرانی اغلب با تعلیق یا حذف دائمی روبرو میشوند. این تضاد رفتاری میتواند نشاندهنده این باشد که مفهوم نفع عمومی در پلتفرمها، تا حد زیادی متأثر از اولویتهای سیاسی و امنیتی است.
3⃣ ریشههای ساختاری و حقوقی تبعیض تفاوت برخورد با مقامات سیاسی صرفاً یک انتخاب نیست، بلکه ریشه در عوامل ساختاری و پیوندهای حقوقی پلتفرمها با دولتهای میزبان نیز (بهویژه ایالات متحده) دارد. قوانین داخلی آمریکا نظیر رژیم حقوقی تحریمهای وزارت خزانهداری (OFAC)، پلتفرمها را وادار به اتخاذ رویکردی موسوم به «بیشسانسوری» در قبال کشورهای تحت تحریم کرده است. در این چارچوب، محتوای نهادهای رسمی ایران عموما در قالب «سازمانهای خطرناک» بازتعریف میشود. این وضعیت باعث شده است که زیرساختهای ارتباطی جهانی به بخشی از ابزارهای فشار سیاسی تبدیل شوند.
4⃣ مدیریتِ دیدهشدن و سانسور الگوریتمی:
استاندارد دوگانه تنها در حذف کامل حسابها خلاصه نمیشود، بلکه در پدیدههایی پیچیدهتر مانند «مدیریت دیدهشدن» نهفته شده است. پلتفرمها با استفاده از ابزارهایی مانند تعلیق نامحسوس (Shadow-banning) یا کاهش دسترسی الگوریتمی، بدون حذف فیزیکی محتوا، میزان اثرگذاری پیامهای مقامات و حسابهای ایرانی را تا حد زیادی کاهش میدهند. این مهندسی نامرئی جریانات، باعث میشود که روایتهای رسمی یک کشور در لحظاتی حساس بایکوت شده و فضای کافی برای روایتهای رقیب فراهم گردد.
5⃣ تقابل با اصول حقوق بینالملل:
اقدامات پلتفرمها در محدودسازی حسابهای رسمی، ممکن است با برخی اصول و اسناد حقوق بینالملل در چالش باشد. به عنوان مثال، کنوانسیون ۱۹۶۱ وین بر مصونیت ارتباطات رسمی و مکاتبات دیپلماتیک تأکید دارد. تعلیق حسابهای رسمی نشان میدهد که پلتفرمها عملاً «مصونیت دیپلماتیک دیجیتال» را به رسمیت نمیشناسند و این ممکن است برخلاف این عرف بینالمللی باشد. همچنین، میتوان استدلال نمود که اعمال قوانین داخلی یک کشور بر مقامات رسمی سایر کشورها در بستر یک پلتفرم جهانی، با اصل «برابری حاکمیتها» در تعارض است.
🔻در نهایت، مجموعه این شواهد حکایت از وجود نوعی «استاندارد دوگانه ساختارمند» دارد که در آن کدهای الگوریتمی بر جای قواعد یکسان نشستهاند. در این وضعیت که بعضا متاسفانه با اعمال محدودیتها و سانسور داخلی نیز تشدید میشود، راه حل نه در قهر کامل با این فضا و انسداد آن، که کاشف از ضرورت حرکت به سمت «چندجانبهگرایی زیرساختی» و ایجاد ائتلافهای نوین (مانند بریکس و پیمان شانگهای) جهت تدوین استانداردهای حکمرانی دیجیتال است. هدف نهایی، عبور از تکصدایی دیجیتال به سمت یک فضای عمومی کثرتگرا است که در آن زیرساختهای شناخت، ابزاری برای اعمال فشار سیاسی نباشند و هیچ صدایی، حتی صدای مخالف قطع نشود و میزان، قانون و عدالت باشد.
🖥 پژوهشگاه فضایمجازی پردیسقم
🌍 بازوی خردمند سپهر فناوری
🆔 @QomCsri | صفحات دیگر ما
#⃣ #یادداشت
📌 عجیبترین کار این روزهای جهان: آموزش رباتهایی که ممکن است روزی شما را بیکار کنند!
🔻 در دهها کشور یک شغل پارهوقت عجیب اما روبهرشدی شکل گرفته است: افرادی که یک آیفون بالای سر خود میبندند و هنگام انجام کارهای ساده خانه، از تا کردن لباس گرفته تا شستن ظرفها و خرد کردن پیاز، از خود فیلم میگیرند. این ویدئوها سپس فریمبهفریم بررسی میشوند تا به روباتهای انساننما یاد دهند چگونه مانند انسان حرکت کنند. به گزارش MIT Technology Review، ثبت ویدئو از کارهای روزمره در خانه اکنون به یکی از سریعترین بخشهای در حال رشد اقتصاد گیگ تبدیل شده و در حال تغییر تعریف «کار پارهوقت» در عصر هوش مصنوعی است.
🖥 پژوهشگاه فضایمجازی پردیسقم
🌍 بازوی خردمند سپهر فناوری
🆔 @QomCsri | صفحات دیگر ما
پژوهشگاه فضایمجازی 'پردیس قم'
#⃣ #یادداشت 📌 عجیبترین کار این روزهای جهان: آموزش رباتهایی که ممکن است روزی شما را بیکار کنند!
🔻 دلیل این روند، رقابت شدید شرکتها برای ساخت روباتهای انساننماست. شرکتهایی مانند تسلا، Figure AI و Agility Robotics میلیاردها دلار برای توسعه روباتهایی سرمایهگذاری کردهاند که بتوانند مانند انسان راه بروند، اشیا را در دست بگیرند و در محیطهای واقعی کار کنند. اما ساخت سختافزار تنها نیمی از مسیر است؛ این ماشینها برای یادگیری به حجم عظیمی از دادههای حرکتی واقعی نیاز دارند، دادههایی که نمیتوان بهراحتی در آزمایشگاه تولید کرد.
🔻 بر خلاف مدلهای زبانی که با متنهای اینترنتی آموزش میبینند، روباتهای انساننما به دادههایی نیاز دارند که تماس واقعی با اشیا را نشان دهد: دستهایی که ظرف را میگیرند، لباس را تا میکنند یا وسایل را جابهجا میکنند. همین نیاز باعث شده شرکتها به سراغ هزاران کارگر در سراسر جهان بروند تا ویدئوهایی از فعالیتهای روزمرهشان جمعآوری کنند.
🔻شرکت Micro1، یک کمپانی داده در کالیفرنیا، هزاران کارگر در بیش از ۵۰ کشور استخدام کرده و ویدئوهای کارهای خانگی آنها را به شرکتهای روباتیک میفروشد. Scale AI نیز بیش از ۱۰۰ هزار ساعت داده برای آموزش روباتها جمعآوری کرده است. در همین حال، DoorDash با اپلیکیشن جدید DoorDash Tasks به پیکهای تحویل غذا اجازه میدهد در زمانهای خالی بین سفارشها، با فیلم گرفتن از انجام کارهای ساده خانه درآمد اضافی کسب کنند.
🔻 برای بسیاری از کارگران در کشورهای در حال توسعه، این کار درآمد قابل توجهی دارد؛ برخی حدود ۱۵ دلار در ساعت دریافت میکنند. اما این مدل کاری همان ویژگیهای بحثبرانگیز اقتصاد گیگ را نیز دارد: کارگران مستقلاند، مزایای شغلی ندارند و اغلب نمیدانند دادههایی که تولید میکنند دقیقاً چگونه استفاده خواهد شد. همچنین نگرانیهای جدی درباره حریم خصوصی نیز مطرح شده است. ویدئوها داخل خانهها را نشان میدهند، از وسایل شخصی گرفته تا سبک زندگی روزمره. و ممکن است همین دادههای شخصی نیز مورد فروش یا سواستفاده قرار بگیرند.
🔻 در عین حال، صنعت روباتهای انساننما با سرعت در حال رشد است. برآوردها نشان میدهد ارزش این بازار تا سال ۲۰۲۶ به بیش از ۴ میلیارد دلار میرسد و تعداد روباتهای نصبشده در جهان ممکن است تا سال ۲۰۲۷ به بیش از ۱۰۰ هزار واحد برسد. دلیل نیاز شدید به داده نیز روشن است: روباتها باید در دنیای واقعی، در محیطهای نامرتب، نور کم و با اشیای متفاوت کار کنند، محیطی که بسیار پیچیدهتر از آزمایشگاه است.
🔻 در نهایت، این روند پارادوکسی جالب ایجاد کرده است: کارگران امروز با ثبت حرکات خود، در حال آموزش ماشینهایی هستند که ممکن است در آینده همان کارها را بدون حضور انسان انجام دهند. در عین حال، همین فرایند دستهای تازه از مشاغل، از ثبت داده و برچسبگذاری تا نظارت بر کیفیت دادههای روباتیک، را نیز ایجاد کرده است. برای بسیاری از ناظران بازار کار، این نشانهای از آیندهای است که در آن همکاری انسان و روبات، شکل تازهای از اقتصاد کار را رقم خواهد زد.
🔗 منبع
🖥 پژوهشگاه فضایمجازی پردیسقم
🌍 بازوی خردمند سپهر فناوری
🆔 @QomCsri | صفحات دیگر ما
#⃣ #یادداشت
📌 سیلیکونولی و واتیکان: کلیسای کاتولیک برای مهار اخلاقی هوش مصنوعی دست به کار شده است.
🔻 گزارش جدید الیاس واچتل در خبرگزاری آتلانتیک، پرده از رابطهای کمسابقه و در حال گسترش برداشته است: همکاری میان بزرگترین چهرههای هوش مصنوعی در سیلیکونولی و کلیسای کاتولیک. این رابطه که از سال ۲۰۱۶ و با برگزاری نشستهای محرمانه «گفتوگوهای مینروا» در واتیکان آغاز شد، اکنون به یکی از مهمترین عرصههای گفتوگوی اخلاقی درباره آیندهً AI تبدیل شده است؛ گفتوگویی میان قدیمیترین نهاد مذهبی جهان و سازندگان فناوریهایی که به «قدرت خدایان» تشبیه میشوند.
🖥 پژوهشگاه فضایمجازی پردیسقم
🌍 بازوی خردمند سپهر فناوری
🆔 @QomCsri | صفحات دیگر ما
پژوهشگاه فضایمجازی 'پردیس قم'
#⃣ #یادداشت 📌 سیلیکونولی و واتیکان: کلیسای کاتولیک برای مهار اخلاقی هوش مصنوعی دست به کار شده است
.
🔻 نویسنده نشان میدهد که هر دو طرف از این همکاری سود میبرند. شرکتهای فناوری، با بحران شدید اعتماد عمومی روبهرو هستند و همنشینی با رهبران کاتولیک را راهی برای نشاندادن جدیت اخلاقی خود میدانند. کلیسا نیز پس از دههها افول نفوذ، این فرصت را راهی برای بازپسگیری اعتبار اخلاقیاش میبیند و تلاش میکند نشان دهد که بحثهای اخلاقیِ عمیق درباره کرامت انسان، مسئولیت، بدنمندی و معنای زندگی بدون سنت دینی کامل نمیشود.
🔻 در گفتوگوهای مینروا، کاتولیکها معمولاً سؤالات اساسیتری مطرح میکنند: آیا انسان «حق دارد» فقط توسط انسان قضاوت شود؟ آیا هوش بیجسم سیلیکونولی با فهم انسانیِ کرامت سازگار است؟ همین نگاه باعث شده برخی چهرههای برجسته فناوری، از رید هافمن تا جرون لنیِر، کلیسا را «صدای عقلانیت عمومی» ببینند؛ صدایی که گاه بسیار دورتر از جهانبینی فناورانهً خودشان است.
🔻 این اثرگذاری تنها محدود به نظریات نمانده است. شرکت آنتروپیک سه متفکر کاتولیک را در تدوین «قانون اساسی» مدل کلود دخیل کرده و حتی ایدههایی مانند مفهوم «بخشش» در اخلاق کاتولیکی وارد روند تربیتی مدلها شده است. کلیسا نیز همزمان شبکههایی مانند DELTA را برای آموزش اخلاقیِ سازندگان و کاربران AI ایجاد کرده است.
🔻 با این حال، شکافها همچنان پابرجاست: برخی کاتولیکها نگران تأثیرات انسانیزدای AI هستند و شماری از رهبران فناوری، نگاه انتقادی کلیسا را مزاحم نوآوری میدانند. با وجود این تنشها، روایت گزارش روشن است: کلیسا قصد توقف AI را ندارد؛ میخواهد آن را هدایت کند، و سیلیکونولی، برخلاف گذشته، در حال گوش دادن است.
🔗 منبع
🖥 پژوهشگاه فضایمجازی پردیسقم
🌍 بازوی خردمند سپهر فناوری
🆔 @QomCsri | صفحات دیگر ما
#⃣ #یادداشت
📌 نبرد بر سر قدرتمندترین فناوری جهان: آیا دولت آمریکا امکان ملیسازی AI را دارد؟
🔻 متئو وانگ و لیلا شراف، در آخرین مقاله خود در آتلانتیک به این سناریو پاسخ دادهاند که اگر دولت ترامپ تصمیم بگیرد کنترل بیشتری بر شرکتهای هوش مصنوعی اعمال کند، یا حتی آنها را ملی کند، ممکن است چه اتفاقی بیفتد. ایده ملیسازی AI تا چند سال پیش بیشتر شبیه یک سناریوی فرضی بود، اما با افزایش قدرت مدلهای پیشرفته و نگرانیهای امنیتی، اکنون بهطور جدی در واشنگتن بررسی میشود. برخی سیاستگذاران حتی احتمال اجرای نوعی «پروژه منهتن برای هوش مصنوعی» را مطرح کردهاند؛ برنامهای دولتی برای توسعه هوش جامع مصنوعی (AGI).
🖥 پژوهشگاه فضایمجازی پردیسقم
🌍 بازوی خردمند سپهر فناوری
🆔 @QomCsri | صفحات دیگر ما
پژوهشگاه فضایمجازی 'پردیس قم'
#⃣ #یادداشت 📌 نبرد بر سر قدرتمندترین فناوری جهان: آیا دولت آمریکا امکان ملیسازی AI را دارد؟ 🔻 م
🔻 یکی از ابزارهای بالقوه دولت «قانون تولید دفاعی» (Defense Production Act) است؛ قانونی از دوران جنگ سرد که به دولت اجازه میدهد در شرایط خاص شرکتها را مجبور کند فناوری یا ظرفیت تولیدشان را در اختیار دولت قرار دهند. این احتمال پس از آن جدیتر شد که شرکت آنتروپیک مدلی به نام Claude Mythos معرفی کرد که توانایی انجام حملات سایبری پیچیده در سطح گروههای هکری دولتی را دارد. چنین قابلیتهایی نگرانیهایی ایجاد کرده که شرکتهای خصوصی ممکن است به قدرتی همسطح نهادهای اطلاعاتی مانند CIA یا NSA دست پیدا کنند.
🔻 با این حال، ملیسازی کامل صنعت AI، یعنی قرار دادن پژوهشگران در مراکز امنیتی پنتاگون و متمرکز کردن تمام محاسبات در یک پروژه دولتی، احتمالاً غیرقانونی و بسیار پرهزینه خواهد بود. دولت باید برای تصاحب شرکتهایی که مجموع ارزششان به تریلیونها دلار میرسد غرامت بپردازد، و همچنین ممکن است بسیاری از پژوهشگران خارجی را از دست بدهد.
🔻 سناریوی محتملتر نوعی «ملیسازی نرم» است: دولت بدون تصاحب کامل شرکتها، قوانین سختگیرانهتری وضع میکند و همکاری نزدیکی با شرکتهایی مانند آنتروپیک، OpenAI و Google DeepMind ایجاد میکند. این فرایند میتواند شامل نظارت دولتی، طبقهبندی برخی تحقیقات بهعنوان محرمانه، کنترل صادرات فناوری، یا حضور ناظران دولتی در شرکتها باشد، مشابه نظارتی که بر نیروگاههای هستهای اعمال میشود.
🔻 در عمل نیز احتمالا چنین روندی از همین حالا آغاز شده است؛ از قراردادهای نظامی شرکتهای AI با پنتاگون گرفته تا سرمایهگذاری دولت در شرکتهای نیمهرسانا. با این حال، نویسندگان هشدار میدهند که سپردن آیندهً هوش مصنوعی هم به شرکتهای خصوصی قدرتمند و هم به دولتی متمرکز و غیرقابل پیشبینی، هر دو خطرناکاند. چالش اصلی قرن بیستویکم ممکن است یافتن تعادلی میان قدرت سیلیکونولی و قدرت دولت باشد.
🔗 منبع
🖥 پژوهشگاه فضایمجازی پردیسقم
🌍 بازوی خردمند سپهر فناوری
🆔 @QomCsri | صفحات دیگر ما
#️⃣ #گزارش_تصویری | #روابط_عمومی
🔰 بازدید اعضای پژوهشگاه فضای مجازی پردیس قم، از خانواده شهیدان عسکرپور و احمدیان؛ «شهدای گرانقدر جنگ تحمیلی سوم»
🖥 پژوهشگاه فضایمجازی پردیسقم
🌍 بازوی خردمند سپهر فناوری
🆔 @QomCsri | صفحات دیگر ما