eitaa logo
فناوری‏‌های نوظهور تهدیدات شناختی
663 دنبال‌کننده
187 عکس
70 ویدیو
12 فایل
آدرس ادمین کانال: @tahdid_admin
مشاهده در ایتا
دانلود
🔸تکنیک شایعه سازی‌ ⚛️شاید اکثر مردم خطرناک ترین سلاح بشر را بمب اتم میدانند ولی در سال ۱۹۹۴ مشخص شد خطرناکترین سلاحی که بشر ساخته شایعه است! ⚰️در سال ۱۹۹۴ دروغی که فرانسوی‌ها در روآندا شایع کردند باعث شد در طول ۳ماه، ۸۰۰ هزار نفر قتل عام شوند! عددی که با حساب کشته‌های بعدی به ۱ میلیون نفر رسید! 🇷🇼کشور روآندا حدود ۱۰میلیون نفر جمعیت داشت که ۸۰ درصد آن هوتو و ۱۵درصد توتسی بودند. این دو قوم به خوبی کنار هم زندگی می‌کردند ولی پس از استعمار آنها توسط بلژیک و فرانسه، با شیوه اختلاف بینداز و حکومت کن میان این دو قوم اختلاف افتاد، استعمار تصمیم گرفت در شناسنامه‌ها قید کند که چه کسی توتسی است و چه کسی هوتو. 👨‍💼مدتها این دو قوم به واسطه تحرکات استعمارگران با هم درگیر بودند که بعد از سال ۱۹۹۳ و تعیین جمهوری، به علت بیشتر بودن قوم هوتو، رئیس جمهور از قوم هوتو انتخاب شد! ✈️در سال ۱۹۹۴ هواپیمای حامل رئیس جمهور رواندا که از قوم هوتو بود توسط موشکی ناشناس سرنگون شد! قوم توتسی که اساسا امکانات این کار را هم در اختیار نداشت این ماجرا را تکذیب کرد ولی کار از کار گذشته بود! با حمایت تسلیحاتی فرانسه، افراطی‌های قوم هوتو شروع به نسل کشی کردند تا کل یک و نیم میلیون جمعیت توتسی را ریشه‌کن کنند! ✊نسل کشی روآندا یکی از تاریک‌ترین ماجراهای قرن بیستم است که در آن حدود ۹درصد از کل جمعیت روآندا کشته و ۲۰ درصد از جمعیت آواره شدند! 💀همه این جمعیت را یک اسلحه تارومار کرد! شایعات استعماری! ✅ در کانال فناوری‏ های نوظهور تهدیدات شناختی عضو شوید: ▶️https://eitaa.com/Cog_threats
animation.gif
2.54M
🔸سندروم گِلام چیست؟ گِلام (Glum)، همان شخصیت کارتونی دوست داشتنی اما ناامید، مآیوس کننده، منفی باف و دلسردکنندۀ کارتون ماجراهای گالیور است که مدام به او و دوستانش که در میدان عمل و مبارزه، در پی راه حلی برای غلبه بر مشکلات مختلف هستند، می‌گوید: "ما موفق نمی شیم! من می دونم! کارمون تمومه! من می دونم". 🔸زندگی ما از دو جنبه منفی و مثبت تشکیل شده است، اما در مورد افراد منفی باف این موضوع کمی متفاوت است چون این افراد موارد منفی را خیلی بیشتر میبینن و سعی دارن به بقیه نشون بدن. 🔸 عملیات اطلاعاتی و جنگ روانی نامحسوس در فضای مجازی از مهمترین ابزارهای القای ناامیدی، یاس، خودبدبخت پنداری و خودتحقیری و در یک کلام مبتلا کردن جامعه به سندروم گِلام است. 🔸 شبکه های اجتماعی با ابزارها و روش های علمی و حساب شده، کاربران خود را اسیر نوعی حباب ذهنی می کنند که حتی قربانیان آن درک محسوسی هم از آن ندارند و حتی اگر کسی در مورد این حباب با آنها بحث کند، سریعا برمی آشوبند و موضع گیری منفی می کنند! فضای مجازی اینگونه حتی از افراد مذهبی با سوابق و علائق انقلابی و ایثارگری قربانی می گیرد. ✅ در کانال فناوری‏ های نوظهور تهدیدات شناختی عضو شوید: ▶️https://eitaa.com/Cog_threats
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🔸بودجه اسرائیل برای فراگیر کردن سندروم گِلام در بین جوانان ایرانی! 🔸اگه نمیدونید سندروم گِلام چیه، اول پست بالا را بخوانید. 🔸اسرائیل ۲.۸ میلیارد دلار خرج کرده که توی رسانه‌هاش مثل اینترنشنال به جوان ایرانی بگه تو بدبخت‌ترین آدم روی زمینی... ✅ در کانال فناوری‏ های نوظهور تهدیدات شناختی عضو شوید: ▶️https://eitaa.com/Cog_threats
14.68M حجم رسانه بالاست
مشاهده در ایتا
🔸 وقاحت آمریکایی! 🔺 بازجویی مجلس نمایندگان آمریکا از روسای سه دانشگاه هاروارد، پنسیلوانیا و ام‌آی‌تی به جرم اعتراضات دانشجویان و اساتید به جنایات اسرائیل در غزه! درنهایت حکم به استعفا(عزل)داده شد.😳 🔸 اسرائیل تو روز روشن تو غزه داره نسل کشی میکنه، اونوقت ببینید برای اعتراض چند دانشجو، چطور رؤسای بزرگترین دانشگاه های آمریکا استنطاق و بعد عزل میشند! ✅ در کانال فناوری‏ های نوظهور تهدیدات شناختی عضو شوید: ▶️https://eitaa.com/Cog_threats
جعبه سیاه در حوزه هوش مصنوعی، عبارت "جعبه سیاه" به معنای سیستم‌ها یا الگوریتم‌هایی است که فرایند داخلی و کارکرد آنها به طور کامل قابل فهم و پیگیری نیست. به عبارت دیگر، ورودی و خروجی سیستم مشخص است، اما نحوه عملکرد دقیق درونی آن به طور کامل مبهم است. تبعات اجتماعی جعبه‌های سیاه در حوزه هوش مصنوعی می‌تواند به چندین شکل متفاوت تأثیر بگذارد. در زیر به برخی از این تبعات اشاره می‌کنم: 1. عدالت و تبعیت قانون: وجود جعبه‌های سیاه در سیستم‌های هوش مصنوعی می‌تواند به چالش کشیدن مفهوم عدالت و تبعیت قانون منجر شود. زیرا اگر تصمیماتی که توسط این سیستم‌ها گرفته می‌شوند، به طور کامل فهمیده نشوند، افراد ممکن است نتوانند از تصمیماتی که بر روی زندگی و حقوق آنها تأثیر می‌گذارد، استناد کنند یا در صورت نیاز آنها را تعقیب و ارتقا دهند. 2. شفافیت و اعتماد عمومی: وجود جعبه‌های سیاه می‌تواند به کاهش شفافیت و اعتماد عمومی در قبال سیستم‌های هوش مصنوعی منجر شود. زیرا افراد نمی‌توانند به طور کامل فهمند که چگونه تصمیماتی که توسط این سیستم‌ها گرفته می‌شوند، شکل می‌گیرند و بر اساس چه معیارها و ویژگی‌هایی اتخاذ می‌شوند. این موضوع می‌تواند باعث ایجاد شک و تردید درباره عملکرد و قابلیت اعتماد این سیستم‌ها شود. ✅ در کانال فناوری‏ های نوظهور تهدیدات شناختی عضو شوید: ▶️https://eitaa.com/Cog_threats
جعبه سیاه (ادامه) 3. تبعات اخلاقی: جعبه‌های سیاه می‌توانند به وجود مسائل اخلاقی منجر شوند. زیرا در صورتی که تصمیماتی که توسط این سیستم‌ها گرفته می‌شوند، به طور کامل فهمیده نشوند، ممکن است تصمیمات ناعادلانه، تبعیض‌آمیز یا ناسازگار با ارزش‌ها و اصول اخلاقی اتخاذ شوند. این موضوع می‌تواند به ایجاد نگرانی‌های اخلاقی در جامعه منجر شود و نیاز به بررسی و تأمین اصول اخلاقی در طراحی و استفاده از سیستم‌های هوش مصنوعی را افزایش دهد. برای حل این مسئله، محققان در حوزه هوش مصنوعی به دنبال روش‌ها و تکنیک‌هایی هستند که عملکرد داخلی سیستم‌های جعبه سیاه را قابل فهم و توجیه کنند. به عنوان مثال، روش‌های تفسیر پذیری (Interpretability) در حال توسعه است که به ماهیت و تصمیمات سیستم‌های هوش مصنوعی کمک می‌کنند و توضیح می‌دهند که در تصمیم‌گیری‌های مختلف، چه معیارها و ویژگی‌هایی در نظر گرفته شده است. ✅ در کانال فناوری‏ های نوظهور تهدیدات شناختی عضو شوید: ▶️https://eitaa.com/Cog_threats
در ادامه برگزاری وبینارهای تخصصی انجمن رمز ایران، بدینوسیله به آگاهی می‌رساند که سی‌وهشتمین وبینار با موضوع: «یادگیری ماشین خصمانه: چالش‌ها و راه‌حل‌ها در حوزه سیستم‌های تشخیص بدافزار» توسط آقای مهندس حمید بستانی دانشجوی دکتری دانشگاه رادبود هلند در تاریخ سه‌شنبه 21 آذر 1402 ساعت 15 الی 16:30 برگزار خواهد شد. جهت آگاهی شما عزیزان، چکیده و معرفی سخنران محترم این وبینار در ادامه خدمتتان ارسال شده است. لطفاً آن را ملاحظه فرمائید. علاقه‌مندان می‌توانند از طریق نشانی زیر و با انتخاب گزینه میهمان در این وبینار شرکت نمایند: https://vc.sharif.edu/ch/isc ضمناً به اطلاع می‌رساند ویدئوهای وبینارهای قبلی در نشانی زیر قابل مشاهده‌اند: https://www.aparat.com/Irancrypt ضمناً توجه فرمائید که این وبینار به دلیل محدودیت وقت سخنران محترم آن، به جای چهارشنبه که روز برگزاری اکثر وبینارهای این انجمن است، در روز سه‌شنبه 21 آذرماه (همین هفته) برگزار خواهد شد. خواهشمند است اساتید و اعضای محترم، این اطلاعیه را به آگاهی دانشجویان و همکاران علاقه‌مند خود برسانند. با تشکر و آرزوی سلامتی و موفقیت همگان دبیرخانه انجمن رمز ایران
با سلام. قابل توجه علاقمندان به موضوعات امنیت سایبری 👆👆
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🔸چطور سیم کارت فرزندم را تنظیم کنم که محتوای غیراخلاقی را در اختیارش قرار نده؟ ✅ در کانال فناوری‏ های نوظهور تهدیدات شناختی عضو شوید: ▶️https://eitaa.com/Cog_threats
🔸غول هوش مصنوعی گوگل از راه رسید 🔹گوگل از هوش مصنوعی «جمینی» خود رونمایی کرد. مدیرعامل گوگل در مراسم رونمایی از جمینی گفت: «این آغاز عصر جدیدی از هوش مصنوعی در گوگل است: عصر جمینی» 🔹جمینی برخلاف سایر مدل‌های هوش مصنوعی، برای تشخیص، درک و ترکیب انواع مختلف اطلاعات از جمله متن، تصویر، صدا، ویدیو و کد آموزش دیده و رقیبی قدرتمند برای ChatGPT است. 🔸این مدل چیزی بیش از یک هوش مصنوعی است و ۳ نسخه دارد: یک نسخه سبک به نام «جمینی نانو» که به‌صورت بومی و غیر برخط در دستگاه‌های اندرویدی اجرا می‌شود. 🔸یک نسخه قوی‌تر به نام «جمینی پرو» که به‌زودی بسیاری از خدمات هوش مصنوعی گوگل را تامین می‌کند و از امروز ستون فقرات گوگل است. 🔸و یک مدل حرفه‌ای به نام «جمینی اولترا» که قدرتمندترین مدل زبانی بزرگ است که گوگل تاکنون ایجاد کرده و به نظر می‌رسد که بیشتر برای مراکز داده و برنامه‌های کاربردی سازمانی طراحی شده. 🔹مدیرعامل گوگل می‌گوید این مدل در نهایت در موتور جست‌وجوی گوگل، محصولات تبلیغاتی آن، مرورگر کروم و... ادغام خواهد شد. جمینی فعلاً به زبان انگلیسی در دسترس است. مرجع: @Farsna ✅ در کانال فناوری‏ های نوظهور تهدیدات شناختی عضو شوید: ▶️https://eitaa.com/Cog_threats
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🔸نیکی هیلی، کاندیدای ریاست جمهوری آمریکا از حزب جمهوریخواه: ما واقعا باید تیک تاک را ممنوع کنیم. چرا؟ چون برای هر ۳۰ دقیقه ای که مخاطب تیک تاک می بینه؛ ۱۷٪ ضدیهودی تر میشه! ✅ در کانال فناوری‏ های نوظهور تهدیدات شناختی عضو شوید: ▶️https://eitaa.com/Cog_threats
💢هوش مصنوعی چگونه بر دموکراسی‌ها و سایر نظام‌های سیاسی اثر می‌گذارد؟ (بخش اول) 🔹بروس اشنایر، مدرس سیاست‌گذاری دانشگاه هاروارد و نویسنده کتاب «ذهن یک هکر» اخیرا در یادداشتی، راجع به تأثیرات هوش مصنوعی بر سیاست نوشته است. 🔸او در این یادداشت می‌گوید هوش مصنوعی در آینده جوامع را طوری تغییر خواهد داد که حتی نمی‌توانیم آن را تصور کنیم. نظام‌های سیاسی نیز از این قاعده مستثنی نیستند. تاکنون در خصوص تبعات ناشی تولید اطلاعات غلط (misinformation) توسط هوش مصنوعی زیاد بحث شده است، اما این مقاله کوتاه، به این موضوع می‌پردازد که هوش مصنوعی چگونه نحوه عملکرد دموکراسی را تغییر می‌دهد. 🔹نویسنده در پاسخ به این پرسش که هوش مصنوعی چگونه می‌تواند جنبه‌های مختلف جامعه مدرن، از جمله دموکراسی را تغییر دهد، به چهار جنبه مختلف توجه کرده است: سرعت، مقیاس، دامنه و پیچیدگی. او معتقد است تغییرات در این چهار جنبه منجر به تحولات اجتماعی می‌شود و می‌گوید هرچند این تغییرات هنوز در حد حدس و گماس هستند اما سرعت تحولات فناورانه به اندازه‌ای است که به‌زودی شاهد تحقق آن‌ها خواهیم بود. تغییراتی که او پیش‌بینی کرده عبارتند از: ۱. هوش مصنوعی به عنوان مربی: ما در حال حاضر شاهد هستیم که هوش مصنوعی نقش معلم را ایفا می کند. یادگیری یک موضوع از یک چت‌بات تعاملی هوش مصنوعی برای دانش‌آموزان بسیار موثرتر از یک کتاب درسی است. این برای دموکراسی کاربرد دارد. می‌توانیم چت‌بات‌هایی را تصور کنیم که به شهروندان در مورد مسائل مختلف مانند تغییرات آب‌وهوایی یا سیاست‌های مالیاتی آموزش می‌دهند. می‌توانیم نامزدهای انتخاباتی را تصور کنیم که چت‌بات‌های خود را به کار می‌گیرند و به رای‌دهندگان اجازه می‌دهند که مستقیماً با آنها در مورد موضوعات مختلف درگیر شوند. یک چت‌بات عمومی‌تر می تواند موقعیت همه نامزدها را بداند و به رای دهندگان کمک کند تصمیم بگیرند به کدام یک رأی دهند. ۲. هوش مصنوعی به عنوان خلاصه‌ساز: حوزه‌های زیادی در جامعه وجود دارد که خلاصه‌سازی دقیق در آنها مهم است. امروز، هنگامی که مردم به نمایندگان خود در مجلس نامه می نویسند، آن‌ها عملا فرصت بررسی دقیق این نامه‌ها را ندارند. اما هوش مصنوعی می تواند خلاصه‌ای غنی از نظرات ارائه دهد و دیدگاه های منحصر به فرد را برجسته کند. همین سیستم همچنین می‌تواند برای نظرات سازمان‌های دولتی مختلف در مورد فرآیندهای قانون‌گذاری - و اسناد تولید شده در طول فرآیند کشف در دعاوی حقوقی کار کند. ۳. هوش مصنوعی به عنوان تعدیل کننده، میانجی و اجماع‌ساز: مکالمات آنلاین را تصور کنید که در آن هوش مصنوعی نقش ناظم را ایفا می کند و بحث را طوری مدیریت می‌کند تا همه صداها شنیده شوند. در عین حال، این ابزار هوشمند می‌تواند جلوی نفرت‌پراکنی یا حتی بیان نظرات خارج از موضوع  را بگیرد. در چنین شرایطی زمینه‌های توافق و مخالفت روشن‌تر می‌شود و امکان تصمیم‌گیری برای گروه راحت‌تر می‌شود. هوش مصنوعی می تواند این قابلیت را برای هر گروه تصمیم‌گیری فراهم کند. در نهایت، یک هوش مصنوعی می تواند یک داور - یک قاضی - باشد که شواهد را می سنجد و تصمیم می گیرد. این قابلیت ها هنوز وجود ندارند، اما دور از دسترس نیستند. ۴. هوش مصنوعی به عنوان قانونگذار: ما تاکنون قوانین قوانین پیشنهادی را دیده‌ایم که توسط هوش مصنوعی نوشته شده است؛ هرچند نه قوانین آنچنان جدی. اما در آینده هوش مصنوعی به تدوین قانون کمک خواهد کرد واثر تدوین یک قانون بر قوانین دیگر را ارزیابی خواهد کرد. مهمتر از آن، هوش مصنوعی در نهایت قادر به ایجاد حفره هایی در قانون خواهند بود، مواردی که به طور بالقوه آنقدر پیچیده هستند که مردم به راحتی متوجه آن نشوند. از سوی دیگر، هوش مصنوعی می‌تواند برای شناسایی حفره‌های قانونی - هم برای قوانین موجود و هم برای قوانینی که در حال تدوین هستند - استفاده شود. ۵. هوش مصنوعی به عنوان استراتژیست سیاسی: در حال حاضر، می‌توانید از چت‌بات مورد علاقه‌تان راجع به استراتژی سیاسی بپرسید: چه قوانینی به اهداف سیاسی شما کمک می‌کند، چه موضع‌هایی را علناً اتخاذ کنید، از چه شعارهای مبارزاتی استفاده کنید. هرچند پاسخ‌هایی که دریافت می‌کنید خیلی خوب نخواهند بود، اما با گذشت زمان بهبود می یابند. در آینده باید از سیاستمداران انتظار داشته باشیم که از این امکان هوش مصنوعی به‌عنوان منبعی از ایده‌ها استفاده کنند. هوش مصنوعی، با افزایش توانمندی در استفاده از ابزارهای موجود، می‌تواند به طور خودکار نظرسنجی‌ها و گروه‌های کانونی (focus groups) را برای آزمایش ایده های سیاسی هدایت کند. در اینجا امکانات زیادی وجود دارد. هوش مصنوعی همچنین می‌تواند در کمپین‌های جمع‌آوری کمک‌های مالی مشارکت کند و مستقیماً از مردم کمک بگیرد. ✅ در کانال فناوری‏ های نوظهور تهدیدات شناختی عضو شوید: ▶️https://eitaa.com/Cog_threats