eitaa logo
معرف
588 دنبال‌کننده
4.4هزار عکس
3.3هزار ویدیو
262 فایل
کانالی برای اساتید عزیز ما را با آدرس زیر به اساتید محترم معرفی کنید : Www.eitaa.com/mc10013
مشاهده در ایتا
دانلود
در ۱۴۰۱، دشمنان تمام توان‌شان را متمرکز کردند تا مردم را با استفاده از به تبدیل کرده و ایران را به دست ایرانیان نابود کنند! حالا بعد از یک نبرد جانانه، می‌توانیم مرحلۀ نخست پیروزیِ (SQ) بر «اَبَرهوش مصنوعی» شیاطین انس و جن را، جشن بگیریم. کانال معرف https://eitaa.com/mc10013 معرف را به دوستان معرفی کنید
🔻مهم ترین ویژگی ، توانایی آن در مدیریت و تجزیه و تحلیل حجم فراوانی از محتوا و در نتیجه شناسایی روندها است. https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید
🚩 یادگیری تقویتی (Reinforcement Learning) رویکردی جدید در حوزه بود تا وابستگی به هوش انسانی و طراح سیستم را از بین ببرد و از طریق رهگیری مستمر آمارها و حدس و خطا، به پاسخ درست و پایدار برسد. ولی بنظر می‌رسد دست‏کم دو تکمله نیاز داریم که هیچ‏کدام از آن‏ها بر اساس دانش فعلی، دست‏یافتنی نیستند؛ 🚩 نخست آن‏که نیاز است یادگیری تقویتی در مسائلی بکار گرفته شود که تعداد موقعیت‏هایی در آن مسائل که می‏تواند مورد مواجهه قرار گیرد، بسیار بیشتر از تعداد موقعیت‏هایی باشد که قبلاً در خلال کارورزی، مواجهه شده است. در نتیجه روش‏هایی بمنظور تعیین اعمال و ارزش‏های درست برای موقعیت‏های جدید، نیاز است. 🚩 دوم آن‏که اگر یادگیری تقویتی بدنبال تولید چیزی شبیه هوش انسانی است،‌ دستگاه یادگیری تقویتی باید حس عمومی را از طریق تعاملات همراه با مآل‏اندیشی و آینده‌سنجی به نمایش بگذارد. حال آن‌که رویه‏های جاری، تلاش می‏کنند مرتبط و متناسب بودن رفتارها را از طریق ردگیری مستمر آمارها در خلال حدس و خطا، بیاموزند. 🚩 در واقع به بیان فیلسوفانی مانند دریفوس، مشکلات رویکرد یادگیری تقویتی از این قرار است که: اوّلا ممکن است یک خصیصه به خودی خود مرتبط و متناسب با رفتار نباشد، اما وقتی با یک یا چند خصیصه دیگر ترکیب می‏شود، مرتبط گردد. برای تدبیر این مسئله، ناگزیر هستیم بررسی‏های مرتبط بودن را بر روی ترکیب ویژگی‌ها انجام دهیم که به حجم سرسام‏آوری از بررسی‌های آماری مهم و محتمل می‌‏‌انجامد. 🚩 ثانیا چیزی که در این رویکرد ملاک و معیار قرار می‏گیرد، مربوط بودن خصیصه در تمام موقعیت‏هایی است که با آن مواجه می‏شود. حال آن‏که ممکن است یک خصیصه در برخی موقعیت‏ها مربوط باشد و در دیگر موقعیت‏ها این‏طور نباشد. بنابراین ما نیازمند جمع‏آوری داده‏های مرتبط بودن بطور جداگانه برای هر موقعیت خاص هستیم که باز به رشدی سهمگین در کمیت بررسی‏ها می‏انجامد. حال آن‌که به نظر می‏رسد بررسی‏های آماری، شیوه‏ای کاربردی و عملی برای تعیین مربوط بودن نیست. 🚩 مسئله سوم این است که هیچ محدودیتی درباره تعداد خصیصه‏هایی که ممکن است بنحوی تصورپذیر در برخی موقعیت‏ها مربوط باشند، وجود ندارد. مشخصاً ما نمی‏توانیم با تمام خصیصه‏هایی که ممکن است مربوط باشند، آغاز کنیم و بررسی‏های آماری را درباره همه آن‏ها جمع‏آوری نماییم. 🚩 ضمن آن‌که رویه‏های یادگیری تقویتی، رفتار را بنحو محرک و پاسخ تولید می‏کنند؛ به این معنا که ورودی (یک توصیف موقعیت)، مستقیماً به سوی خروجی (یک عمل یا رفتار) هدایت می‏شود. مغز اما مشخصاً حالاتی درونی دارد که در هنگام دریافت ورودی‏ها، در قالب مودها و پیش‏بینی‌‏ها و ... تجربه می‏کند. این‏ تجربیات با ورودی جاری و همچنین با قوت اتصالات سیناپسی – که بر اساس تجربیات طولانی گذشته شکل گرفته – مشخص می‏شوند. 🚩 حتی برای همان تعیین و تولید رفتار، رویکرد یادگیری تقویتی نیازمند قانونی جهت تعیین پاسخ فوری ناشی از هر عمل ممکن در هر موقعیت ممکن است. ولی انسان‌ها چنین قوانینی ندارند و نیاز هم ندارند. نیازها، تمایلات و هیجانات ما، حسی از مربوط‌بودن رفتارهایمان برایمان فراهم می‌آورد. حال اگر این نیازها و تمایلات و هیجانات نیز به نوبه خود وابسته به توانایی‌ها و آسیب‌پذیری‌های یک بدن بیولوژیکی باشند که درون یک فرهنگ خاص، اجتماعی شده است، آن‌گاه دستگاه‌های یادگیری تقویتی راه زیادی برای رسیدن به آن دارند. https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید
🔶 چیست و چگونه کار میکند؟/ همه چیز درباره هوش مصنوعی؛ از تاریخچه تا کاربرد 📍هوش مصنوعی در واقع است که به نحوی قابلیت تفکر دارد. البته این قابلیت تفکر با چیزی که ما به عنوان تفکر انسانی می‌شناسیم تا حد زیادی تفاوت دارد. ▶️هوش مصنوعی چیست؟ 🔸خیلی از افراد هنوز هم با شنیدن واژه هوش مصنوعی به ها فکر میکنند و تصور میکنند که منظور از هوش مصنوعی همان ربات های بی احساسی هستند که برای انجام راحت تر کارها طراحی شده‌اند و قرار است در آینده جای انسان ها را بگیرند. مسئول این نوع تفکر به احتمال زیاد فیلم های علمی و تخیلی است اما واقعیت با آنچه که تصور می شود تفاوت دارد. 🔖هوش مصنوعی به انگلیسی Artificial intelligence که به طور مخفف آن را AI نیز می‌نامند، در واقع تکنولوژی است که به نحوی قابلیت تفکر دارد. البته این قابلیت تفکر با چیزی که ما به عنوان تفکر انسانی می‌شناسیم تا حد زیادی تفاوت دارد، اما در حقیقت سعی دارد تا از آن تقلید کند. 📌مشاهده کامل در لینک زیر 🌐http://amir-sadeghi.com/post/16 https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید
📲افزایش سواد رسانه‌ای مخاطبان در مقابل پیشرفت پرسرعت هوش مصنوعی ، آدرس غلط دادن است!!! 🔴امروزه تکنولوژی هوش مصنوعی دارای چنان پیشرفت سرسام آوری شده است که میتوان به کمک آن حتی فرد فوت کرده‌ای را به طور تصویری زنده کرد و با تصویر او فیلمی ساخت و در آن هر حرفی زد و هر کاری کرد! سوال اساسی اینجاست که افزایش سواد رسانه‌ای کاربران فضای مجازی و تقویت تفکر انتقادی در برخورد با تولیدات رسانه‌ای ، چه مقدار میتواند آنها را از فریب‌های حرفه‌ای هوش مصنوعی در امان نگه دارد؟ ❌پاسخ چیزی نزدیک به صفر است! ⚠️چرا که هوش مصنوعی قادر به ساخت آثاری بشدت واقعی‌ست که هر چه قدر هم تفکر انتقادی و نگاه ریزبینانه‌ی مخاطبین بالا باشد ، برای تشخیص فریب آن بی‌فایده‌ است! ⭕️حداقل ۲ راهِ مقابله با هجمه‌ها و فریب‌های احتمالی هوش مصنوعی وجود دارد ؛ 1⃣ورود جدی متخصصین و نخبگان علمی کشور به این تکنولوژی و گرفتن قدرت از انحصارگران این صنعت در دنیا و ارائه‌ی الگوهایی برای شناخت فریب‌های هوش مصنوعی 2⃣احداث کامل شبکه‌ی ملی اطلاعات ✅در این راستا احداث شبکه‌ ملی اطلاعات بسیار مهم است چرا که با احداث این شبکه ، مرزهای مجازی ساماندهی خواهد شد و سو‌استفاده‌ها و فریب‌های مجازی قابلیت رصد بیشتری خواهند داشت و طبیعتا با نظارت بیشتر ، از میزان خرابکاری‌ها کاسته خواهد شد! ✍میلاد خورسندی https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید
رئیس سازمان پدافند غیرعامل گفت: ۳۰ درصد از حملات سال گذشته کشور بر مبنای هوش مصنوعی شکل گرفته است. سردار غلامرضا جلالی، رئیس سازمان پدافند غیرعامل کشور در بازدید از پارک علم و فناوری دانشگاه سمنان و محصولات شرکت‌های فناور این دانشگاه اظهار کرد: تهدیدات فناورانه امروزه جزو جنگ‌های غیرنظامی محسوب می‌شود. وی بیان کرد: دشمنان راهبردهای مختلفی را در حوزه تهدیدات جنگ فناورانه طراحی کرده‌اند. رئیس سازمان پدافند غیرعامل اظهار کرد: در مقابله با تهدیدات فناوری و دانش‌پایه، باید راهبردهای مقابله مطلوب را برگزید. جلالی اظهار کرد: دانشگاه‌ها و پارک‌های علم و فناوری، مبنای شکل‌گیری و تهیه و تدوین راهبردهای مطلوب برای دفاع و مقابله با تهدیدات فناوری هستند. وی گفت: ۳۰ درصد از حملات سال گذشته کشور بر مبنای شکل گرفته بود. متن کامل از اینجا https://ainews.ir/?p=16785 https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید
🔸 هوش مصنوعی در یک نگاه https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید
15.56M حجم رسانه بالاست
مشاهده در ایتا
🔻نگاهی به ترورهای مدرن و دنیایی که هر روز خطرناک تر می شود. 🔸وقتی میگن وحشتناک تر از بمب هسته ای است، دقیقا منظورشون چیه؟ وستانیوز https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید
💠 رسانه و جنگ ترکیبی و پیشینه آن ⁉️ رهبر انقلاب اسلامی تأکید دارند که دشمن با یک جنگ ترکیبی به مصاف ملت ایران آمده است. «رسانه» در «جنگ ترکیبی» چه جایگاهی دارد و کدام بخش از هندسه تهاجمی دشمن را تکمیل می‌کند؟ 🔻 استفاده از عنصر در نبردها و جنگ‌ها پیشینه‌ای طولانی در تاریخ دارد؛ از رجزخوانی در جنگ‌های کهن گرفته تا پروپاگاندای نظامی در که هم توسط متفقین و هم متحدین به کار گرفته شد. 🔻 در جنگ اول خلیج‌فارس استفاده از رسانه در جنگ وارد مرحله جدیدی شد و خبرنگاران شبکه تلویزیونی سی‌ان‌ان (CNN) سوار بر تانک‌های آمریکایی در حمله به عراق نقش‌آفرینی می‌کردند و عملیات و بمباران‌ها زنده پخش می‌شد. به تعبیر برخی از اندیشمندان مانند ژان بودریار، تصویر در سی‌ان‌ان واقعی‌تر از خود جنگ بود. 🔻 اکنون آن چیزی که جدید است تحولات فناوری رسانه و امکانات جدیدی است که در اختیار دولت‌ها و سازمان‌ها و نهادها و نیز کنش‌گران غیردولتی قرار گرفته است. البته بسیاری از این کنش‌گران و بنیادها و اندیشکده‌ها در جهان هم وابستگی‌های پنهان و آشکار دولتی دارند و از فناوری‌های نوین رسانه‌ای و روش‌های جدید ارتباطات و اطلاع‌رسانی مبتنی بر و استفاده می‌کنند و عملیات مختلف تبلیغاتی و جنگ روانی بر پا می‌کنند. 🔻 اصطلاح «» (Hybrid warfare) نخستین‌بار در مطالعات راهبردی توسط یک تحلیلگر نظامی به نام فرانک هافمن در سال ۲۰۰۷ در کتابی با عنوان «منازعه در قرن ۲۱: ظهور جنگ‌های ترکیبی» به کار رفت. از نظر هافمن در جنگ ترکیبی علاوه بر فنون نظامی از ابزارهای غیرنظامی مانند و ، ، و خصوصاً و جنگ روانی استفاده می‌شود. 🗓 گفت‌وگوی رسانه KHAMENEI.IR، با آقای دکتر شهاب اسفندیاری، رئیس دانشگاه صدا و سیما 💠 مطالعه کامل متن در پیوند زیر: 🌐 https://khl.ink/f/51532 https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید
🔻تحقیقات اخیر در زمینه متخاصم، نشان داده است که با دستکاری تنها چند پیکسل در یک تصویر، الگوریتم می تواند تفسیر خود را از تصویر به طور کامل تغییر دهد و آن را در یک دسته کاملاً متفاوت طبقه بندی کند، در حالی که چشم انسان ممکن است هرگز متوجه چنین تغییری نشود. https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید
🎯 شما طوطی نيستيد، چت‌جی‌پی‌تی هم انسان نيست 🔴 معمولاً اینطور تصور می‌کنیم که ربات‌ها هر چه در حرکات، واکنش‌ها یا جواب‌هایشان به رفتار طبیعی یک انسان واقعی نزدیک‌تر شوند، ربات‌های بهتر یا پیشرفته‌تری محسوب می‌شوند. بنابراین سازندگان ربات‌ها تمایل فراوانی به هر چه شبیه‌تر کردن ساخته‌هایشان به انسان‌ها دارند. بااین‌حال، بسیاری از متخصصان اخلاق فناوری دربارۀ این موضوع تردید دارند. آیا واقعاً خوب است که مرز میان انسان‌ها و ربات‌ها کمرنگ شوند؟ انسان فرض‌کردن ربات‌ها دقیقاً چه پیامدهایی یا آسیب‌هایی را می‌تواند به دنبال بیاورد؟ 🔴 این موضوع وقتی پیچیده‌تر می‌شود که بدانیم در میان ما آدم‌ها نیز تمایلِ زیادی برای «انسان‌وار» قلمداد کردن موجودات غیرانسانی وجود دارد، چه پای حیوانات در میان باشد، چه ربات‌ها یا حتی عروسک‌ها و مجسمه‌ها. 🔴 این روزها با فراگیرشدن بحث از چت جی‌پی‌تی و توانایی‌های خارق‌العادۀ زبانی آن، این مسئله بار دیگر به میان آمده است: امیلی بِندِر، زبان‌شناس مشهوری که یکی از خبره‌ترین متخصصانِ کاربرد زبان در هوش‌های مصنوعی است، می‌پرسد: چرا باید مثل آدم‌های معمولی حرف بزند؟ آیا چنین قابلیتی، به جز «فریب‌دادن» کاربران فایدۀ دیگری هم دارد؟ بِندر می‌نویسد: فرض ما این است که وقتی کسی حرف می‌زند، قصد دارد پیامی به ما منتقل کند و مسئولیت حرفش را هم می‌پذیرد، اما ربات‌ها درکی از حرفی که می‌زنند و پیامدهایش ندارند. 🔴 «ما دنیا را تغییر داده‌ایم. ما یاد گرفته‌ایم ماشین‌هایی بسازیم که به‌طور مکانیکی متن تولید کنند. اما هنوز یاد نگرفته‌ایم که چطور بین ماشین و ذهن انسان تمایز قائل شویم». 🔴 از نظر بِندِر «چت‌بات‌هایی که ما به‌راحتی آن‌ها را با انسان اشتباه می‌گیریم، صرفاً بامزه یا اعصاب‌‌خردکن نیستند.» بلکه مبهم‌شدن مرز میان ربات و انسان، می‌تواند آسیب‌های جدی در بر داشته باشد. یا اساساً منجر به از هم گسستن جامعه شود. یکی از مثال‌های ساده‌اش، مسئلۀ «انسان‌های جعلی» است. دنیل دنت، فیلسوف مشهور، می‌نویسد: ما نمی‌توانیم در دنیایی با «افراد جعلی» زندگی کنیم. از وقتی پول وجود داشته، جعل پول نوعی خراب‌کاری اجتماعی قلمداد می‌شد که مجازات آن اعدام، درآوردن احشاء و شقه‌شقه‌کردن بود. بحث هم دست‌کم به همین اندازه جدی است. 🔴 از نظر دنت رباتی که می‌تواند مثل یک انسان حرف بزند، فقط یک قدم تا سلاح خطرناکی که در جنگ‌های بیولوژیک یا هسته‌ای می‌تواند به کار گرفته شود، فاصله دارد. 🔴 بِندِر می‌گوید من یک قانون دارم: «کمرنگ‌کردن مرزها ممنوع!» اگر این قانون را بپذیرید، آنگاه خیلی راحت‌تر می‌توانید از شرکت‌های بزرگ تکنولوژی که برای توسعۀ هر چه بیشتر سر و دست می‌شکنند، بپرسید: این کارها برای چیست؟ اگر این ابزارها ساخته می‌شوند تا زندگی ما انسان‌ها را راحت‌تر کنند، پس چرا اصرار دارید آن‌ها را مثل دیگر انسان‌ها ببینیم؟ به آن‌ها علاقه‌مند و وابسته شویم؟ یا وقتی آن‌ها را از دست می‌دهیم، فکر کنیم یک دوست را از دست داده‌ایم؟ چرا ابزارها را در قلمرویی آن‌سوی انسانیت نگه نمی‌دارید؟ 📌 ادامۀ مطلب را در لینک زیر بخوانید: https://B2n.ir/t19517 https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید
هوش مصنوعی جدید گوگل با دستور متنی ویدیو می‌سازد امیر عبدالملکی : گوگل ابزار هوش مصنوعی جدیدی معرفی کرده است که می‌تواند دستورهای متنی را به ویدیو تبدیل کند. از حدود یک سال پیش، وب‌سایت‌هایی دردسترس قرار گرفته‌اند که می‌توانند تصویری را براساس ورودی متن کاربر تولید کنند. حالا گوگل این قابلیت را به سطح بالاتری برده است. گوگل ابزار هوش مصنوعی جدیدی به نام VideoPoet معرفی کرده است که می‌تواند براساس ورودی متن، ویدیو تولید کند. این ابزار می‌تواند انواع مختلفی از ویدیوها ازجمله فیلم‌های کوتاه و موزیک ویدیو و حتی ویدیوهای پیچیده‌تر را ایجاد کند. براساس اطلاعیه‌ی گوگل، VideoPoet مدل زبانی بزرگی است که روی مجموعه‌ای از داده‌های عظیم متنی و تصویری آموزش دیده است؛ در نتیجه، این مدل رابطه‌ی بین متن و ویدیو را می‌تواند درک و ویدیوهایی تولید کند که هم منسجم و هم ازنظر بصری جذاب باشند. یکی از نکات جالب درباره VideoPoet، توانایی آن در تولید ویدیوهای طولانی است. این مدل می‌تواند با کنارهم قرار‌دادن کلیپ‌های کوتاه، ویدیوهای چند‌دقیقه‌ای ایجاد کند. بدین‌ترتیب، می‌توان از VideoPoet برای ساخت ویدیوهای پیچیده‌تر و متنوع‌تر استفاده کرد. همچنین، از VideoPoet برای ویرایش ویدیوهای ازپیش‌ساخته‌شده می‌توان استفاده کرد. برای مثال، می‌توانید از این ابزار برای اضافه‌کردن انیمیشن به تصویر ثابت یا تغییر سبک ویدیو بهره بگیرید. این موضوع VideoPoet را به ابزاری قدرتمند برای ویرایش ویدئو تبدیل می‌کند؛ حتی برای افرادی که تجربه‌ی زیادی ندارند. یکی دیگر از کاربردهای ابزار جدید گوگل، استخراج صدا از کلیپ‌های ویدیویی است. گوگل هنوز در حال کار روی VideoPoet است؛ اما این ابزار همین حالا هم توانسته نتایج چشمگیری را به‌همراه داشته باشد. منبع : https://www.zoomit.ir/ai-articles/413598-google-new-videopoet-ai-tool/ https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید
🎯 هوش مصنوعی احمق است، اما به‌شکلی قانع‌کننده — هوش مصنوعی به شکل فعلی‌اش بیشتر است تا ، و بیشتر مبتذل است تا پیشرو 📍سال ۲۰۲۳، سال هوش مصنوعی بود. سالی که هر بار را باز می‌کردی، با تصاویر عجیب و غریب، توهمی یا آخرالزمانی‌ای مواجه می‌شدی که ساخته بود. یا داستان‌های پر شور و شوقی می‌شنیدی که چه‌کارهایی از چت جی‌پی‌تی برمی‌آید. اما کسانی که تحولات هوش مصنوعی را جدی‌تر دنبال می‌کردند، انگار به این خلاقیت‌ها چندان خوش‌بین نبودند. جیمز برایدل، در این مقالۀ مفصل توضیح می‌دهد که چرا برخی از رایج‌ترین تصورات دربارۀ هوش مصنوعی، در واقع، سراپا غلط‌اند. 🔖 ۴۸۰۰ کلمه ⏰ زمان مطالعه: ۳۰ دقيقه                                         📌 ادامۀ مطلب را در لینک زیر بخوانید: B2n.ir/d76239 https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید
پیدایش علوم شناختی 🔰 در سال ۱۹۵۶ همایشهای مهمی در حوزه و نظریه خبر برگزار شد که نقطه شروعی برای تولد به معنای امروزی به شمار می‌رفت. در همان سال، مقالات مهمی در حوزه‌های ، و منتشر شد که به تحولات مهمی در علم شناختی اشاره داشتند. چامسکی با نقد رویکرد‌های رفتاری و ساخت‌گرایانه در زبان شناسی، رویکردی جدید به نام "زبان شناسی نحوی" را معرفی کرد. تحقیقات در حوزه علوم اعصاب شناختی و رابطه مغز و شناخت، توجه محققان و پزشکان را به خود جلب کرد. با توسعه فناوری و روش‌های مختلف مشاهده و دستکاری سیستم عصبی، حوزه علوم اعصاب شناختی به یکی از محوری‌ترین حوزه‌های علوم شناختی تبدیل شد. مطالعات بروکا و تحلیل آسیب‌های مختلف در مغز، به پیشران جدیدی برای درک مراکز فرایندهای شناختی تبدیل شد. علوم اعصاب شناختی، یک میدان جدید و پیشرو در زمینه مطالعه کارکردهای شناختی مغز و سیستم عصبی است. برای اولین بار، محققان به صورت مستقیم به مطالعه کارکردهای شناختی مغز پرداختند و توانایی دستکاری سیستم عصبی را پیدا کردند. این اتفاقات منجر به ایجاد زمینه‌ای برای تطبیق زبان شناسی با علوم شناختی شد و نقش مهمی در تولد علوم شناختی ایفا کرد. در نهایت، تحولات در زمینه‌های مختلف علمی در سال ۱۹۵۶، به تدریج به شکل دهنده اصلی علوم شناختی به شمار می‌رفتند. اقتباس از: کتاب درباره‌ی علم شناختی دکتر حاتمی 📕 https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید
عفو بین‌الملل: نظم جهانی در آستانه فروپاشی است 🔸 سازمان عفو بین‌الملل در گزارشی اعلام کرد که «نظم جهانی پساجنگ جهانی دوم در آستانه فروپاشی است» و درگیری‌های تلخ در جبهه‌های چندگانه و همچنین رشد لگام‌گسیخته این نظم جهانی را تهدید می‌کنند. 🔸انیِس کالامار، دبیر کل عفو بین‌الملل در گفت‌وگو با خبرگزاری فرانسه درباره گزارش سالانه این نهاد که با عنوان «وضعیت حقوق بشر جهان» منتشر شده است، گفت: «تمامی شواهد و قرائن ۱۲ ماه گذشته حاکی از آن است که نظم جهانی بین‌المللی در آستانه فروپاشی است.» ♦️ تهدید و و نیاز به بازبینی ساختار شورای امنیت 🔸انیس کالامار هشدار داد که دیگر بازیگران قدرتمند از جمله روسیه و چین هم تمایل خود را در به خطر‌ انداختن کلیت نظام مبتنی‌بر قوانین ۱۹۴۸ نشان داده‌اند. این گزارش «قانون شکنی آشکار نیروهای روس طی تهاجم نظامی همه‌جانبه طولانی‌مدت آن‌ها به و به‌کارگیری شکنجه و سوء‌رفتار علیه زندانیان جنگ را مستند کرده است. 🔸 بنابراین گزارش چین نیز با حمایت از ارتش به‌رغم حمله این ارتش به غیرنظامیان این کشور، برخلاف حقوق بین‌الملل عمل کرده است. به گفته کالامار، برای احیا و تجدید نهاد‌های بین‌المللی که وظیفه حفاظت از بشریت را برعهده دارند به اقدامات فوری نیاز است. ⬅️ او گفت: «ما خواهان بازسازی عاجل شورای امنیت سازمان ملل متحد و به‌ویژه اصلاح حق وتو هستیم به‌گونه‌ای که نتوان آن را در موقعیت‌های نقض شدید به کار برد.» ♦️هوش مصنوعی به‌مثابه تهدید بشریت 🔸 بنابراین گزارش ظهور و رشد هوش مصنوعی بر نگرانی‌هایی چون امکان فرسایش فراگیر حقوق و به تبع آن تداوم سیاست‌های نژادپرستانه و امکان انتشار اطلاعات نادرست و ضداطلاعات دامن می‌زند. ⬅️ عفو بین‌الملل شرکت‌های بزرگ فناوری را به نادیده گرفتن این تهدید‌ها حتی در «درگیری‌های مسلحانه» متهم می‌کند. 🔸در این گزارش آمده است که شرکت‌های یاغی فناوری و فناوری‌های سرکش آن‌ها به حال خود رها شده‌اند و در غرب وحشی دیجیتال آزادانه پرسه می‌زنند. بنابراین گزارش این امر احتمالاً به تسریع نقض حقوق بشر در سال ۲۰۲۴ خواهد انجامید، سالی که سرشار از انتخابات کلیدی از جمله انتخابات ریاست‌ جمهوری است. 🔸 کالامار گفت: در دنیایی که درگیر بی‌ثباتی فزاینده است، گسترش و به‌کارگیری بی‌قاعده از فناوری‌هایی چون هوش‌ مصنوعی مولد، تشخیص چهره و بدافزارهای جاسوسی از طریق تعمیم و گسترش نقض حقوق بین‌الملل و حقوق بشر به سطحی خاق‌العاده، به دشمنی خطرناک تبدیل می‌شوند. 🔸 او افزود: «در این سال به خصوص انتخابات و در سایه لابی‌های قدرتمند مخالف با مقیدسازی که توسط غول‌های فناوری تامین مالی می‌شوند، این پیشرفت سرکش و بی‌قاعده فناوری برای همه ما تهدیدی عظیم به شمار می‌رود.» 🔸 خانم کالامار از دولت‌ها خواسته است تا «اقدامات قانون و نظارتی خود را برای مقابله با خطرات و آسیب‌های ناشی از هوش مصنوعی قوت بخشند.» https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🔺پرسش جالب از هوش مصنوعی | ای اگر تو جای بودی چگونه مردم را بی‌دین می‌کردی؟ پاسخ را از زبان خودش بشنوید! https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید
🔻تهدیدات هوش مصنوعی خودمختار از دید مدیرعامل سابق گوگل ▪️اریک اشمیت، مدیرعامل سابق گوگل، اظهار داشت که خودمختار در راه است و ممکن است تهدیدی وجودی برای بشریت ایجاد کند. اشمیت، که مدت‌ها درباره خطرات و فواید هوش مصنوعی برای انسان هشدار داده است، در مصاحبه‌ای در تاریخ ۱۵ دسامبر با برنامه «این هفته» شبکه ای‌بی‌سی گفت: «به‌زودی کامپیوترها قادر خواهند بود به‌طور مستقل عمل کنند و خودشان تصمیم بگیرند که چه کاری می‌خواهند انجام دهند.» او افزود: «این مرحله‌ای خطرناک است: زمانی که یک سیستم بتواند خودش را بهبود بخشد، باید به‌طور جدی درباره خاموش کردن آن فکر کنیم.» https://eitaa.com/mc10013 کانال معرف را به دوستان معرفی کنید