eitaa logo
خبرگزاری سایبربان
12.1هزار دنبال‌کننده
8.6هزار عکس
1.1هزار ویدیو
28 فایل
دیـــده بــان ســـایـــبـــری ایـــــــران🇮🇷 مـرجــع تخــصــصی امـــور ســـایـــبـــری©️ نخستین موسسه اطلاع رسانی امور سایبری در ایران📨 سایت: https://www.cyberbannews.com روابط عمومی و تبلیغات: @admin_cyberban
مشاهده در ایتا
دانلود
🌐 انتخابات ۲۰۲۴ آمریکا با رشد هوش مصنوعی در خطر است 🔷 هوش مصنوعی روز به روز در حال پیشرفت است و اکنون رونق این فناوری با انتخابات آمریکا و تبلیغات آن مصادف شده و همین موضوع نگرانی‌هایی را به همراه دارد. |ادامه این خبر را در سایت بخوانید| 📡@cyberbannews_ir
🌐 کمک دیپ‌فیک‌ها به برخی از طرح‌های اخاذی 🔷زمانی بود که طرح‌های اخاذی معمولاً شامل مطالب دیجیتالی می‌شد که به سرقت رفته بود؛ اما اف بی آی اکنون هشدار می دهد که دیپ فیک ها ماهیت جنایت را تغییر می دهند. |ادامه این خبر را در سایت بخوانید| 🔵موسسه اطلاع رسانی سایبربان👇 📡@cyberbannews_ir
🌐 سرمایه‌گذاری 16 میلیون دلاری در استارت‌آپ شناسایی دیپ‌فیک اسرائیلی 🔹کارشناسان عنوان کردند که پیچیدگی فناوری دیپ‌فیک که توسط مدل های پیشرفته هوش مصنوعی پشتیبانی می‌شود، تمایز بین محتوای آنلاین واقعی و دستکاری شده یا ساختگی را دشوار می‌کند. ایجاد رسانه‌های مصنوعی برای انتشار اطلاعات غلط و تبلیغات، از جمله در جریان جنگ رژیم صهیونیستی و حماس مورد استفاده قرار می‎گیرد. 🖇گزارش کامل 📲سایبربان @cyberbannews_ir
🌐ممنوعیت کاربرد دیپ‌فیک‌ها برای مقاصد تبلیغاتی انتخابات در کره جنوبی 🔹 در حالی که کمتر از 50 روز تا انتخابات پارلمانی کره جنوبی در ماه آوریل امسال باقی مانده است، نگرانی‌ها در مورد تکثیر ویدئوها و تصاویر عمیق جعلی تولید شده توسط هوش مصنوعی (AI) در حال افزایش است که باعث افزایش هوشیاری مقامات انتخاباتی شده است. 🔹براساس گزارش کمیسیون ملی انتخابات (NEC)، ناظر انتخابات کشور، 129 قطعه محتوای رسانه ای تولید شده توسط هوش مصنوعی از 29 ژانویه تا پایان هفته گذشته شناسایی شده که نقض قانون انتخابات است و به تازگی اصلاح شده است. 📎 گزارش کامل 📲 سایبربان @cyberbannews_ir
🌐 اصلاح قوانین دیپ فیک ها توسط متا 🔹متا قوانین مربوط به دیپ فیک ها و محتوای تولید شده توسط هوش مصنوعی را اصلاح می کند. 🔹شرکت متا اعلام کرد که پیش از انتخابات ایالات متحده آمادگی خود را جهت نظارت بر محتوای فریبنده تولید شده توسط فناوری های جدید هوش مصنوعی آزمایش خواهد کرد. 📎 گزارش کامل @cyberbannews_ir
🌐 نگرانی استرالیا از اثرات دیپ‌فیک روی انتخابات 🔹 تحقیقات جهانی جدید از شرکت امنیتی مک‌آفی افزایش شدید نگرانی در مورد فناوری‌های هوش مصنوعی (AI) مانند دیپ‌فیک‌ها را نشان می‌دهد که بر انتخابات ۲۰۲۴ تأثیر منفی می‌گذارند. 🔹براساس این تحقیق، که اوایل سال ۲۰۲۴ از ۷۰۰۰ نفر در سراسر جهان نظرسنجی شد، ۴۳ درصد استرالیایی‌ها مداخله در انتخابات را به عنوان یک نگرانی کلیدی در مورد تأثیر فناوری مبتنی بر هوش مصنوعی ذکر کردند. 🔻این افزایش 66 درصدی در یک دوره 12 ماهه است. @cyberbannews_ir
1.28M حجم رسانه بالاست
مشاهده در ایتا
🌐 ایجاد دیپ فیک فقط در چند دقیقه با Argil.ai 🔹 شبکه عصبی به یک ویدیوی کوتاه با شخصیت نیاز دارد. سپس می توانید به راحتی فیلم های با کیفیت بالا تولید کنید. @cyberbannews_ir
🌐 آنر از دو قابلیت هوش مصنوعی برای محافظت از چشم و تشخیص دیپ‌فیک رونمایی کرد 🔹آنر ادعا می‌کند فناوری محافظت از چشم با هوش مصنوعی، پس از ۲۵ دقیقه مطالعه، نزدیک‌بینی گذرا کاربران را به‌طور متوسط ​​۱۳ درجه کاهش می‌دهد و برخی کاربران حتی کاهش ۷۵ درجه‌ای را نیز تجربه خواهند کرد. 🔻آنر همچنین می‌گوید فناوری تشخیص دیپ‌فیک این شرکت با مجموعه داده بزرگی از تصاویر و ویدئو‌های مربوط به کلاهبرداری‌های آنلاین آموزش دیده است که به این هوش مصنوعی امکان می‌دهد طی سه ثانیه ویدئوی تقلبی را شناسایی کند. @cyberbannews_ir
فاش شدن نام توسعه‌دهندگان ابزارهای غیرقانونی هوش مصنوعی 🔺مایکروسافت اعلام کرد که چهار توسعه‌دهنده خارجی و دو توسعه‌دهنده مستقر در ایالات متحده به‌طور غیرقانونی به خدمات هوش مصنوعی مولد دسترسی پیدا کرده اند. 🔹 آن‌ها این خدمات را به‌گونه‌ای تغییر داده‌اند که امکان ایجاد محتوای مضر از جمله جعل عمیق (Deep Fake) افراد مشهور را فراهم کند و سپس دسترسی به این ابزارها را به فروش رسانده‌اند. 🔻مایکروسافت نام افراد مشهور قربانی را به دلیل نگرانی‌های مربوط به حفظ حریم خصوصی آن‌ها فاش نکرد. 📎 گزارش کامل خـــبــرگــزاری ســـایــبــربـــان 👇 🛰 @cyberbannews_ir
جعل صدای وزیر خارجه آمریکا با دیپ‌فیک برای فریب دیپلمات‌ها 🔺یک هکر ناشناس با جعل صدای وزیر خارجه آمریکا از طریق فناوری دیپ‌فیک، با چند وزیر خارجه خارجی، یک فرماندار آمریکایی و یک نماینده کنگره تماس گرفته است. 🔻تماس‌ها از طریق اپلیکیشن امن Signal انجام شد و شامل پیام‌های صوتی و متنی بود که در برخی موارد موفق به فریب طرف مقابل شد. 🔹وزارت خارجه آمریکا تأیید کرد: اگرچه زیرساخت‌های سایبری هک نشده، اما احتمال افشای اطلاعات حساس وجود دارد. 🔴 این دومین حمله دیپ‌فیک به دیپلمات‌ها در ماه‌های اخیر است و نشان می‌دهد این فناوری به ابزاری خطرناک برای نفوذ اطلاعاتی و تخریب روابط بین‌المللی تبدیل شده است. خـــبــرگــزاری ســـایــبــربـــان 👇 🛰 @cyberbannews_ir
درخواست سازمان ملل مبنی بر شناسایی دیپ‌فیک‌ها 🔺اتحادیه بین‌المللی مخابرات سازمان ملل متحد در گزارشی خواستار استفاده شرکت‌ها از ابزارهای پیشرفته برای شناسایی و حذف اطلاعات نادرست و محتوای جعلی عمیق شد تا به مقابله با خطرات فزاینده دخالت در انتخابات و کلاهبرداری مالی کمک کند. 🔻اتحادیه بین‌المللی مخابرات در گزارشی که در "اجلاس هوش مصنوعی برای خیر" در ژنو منتشر شد، اعلام کرد که جعلی‌های عمیق مانند تصاویر و ویدئوهای تولید شده توسط هوش مصنوعی و صداهایی که به طور قانع‌کننده‌ای هویت افراد واقعی را جعل می‌کنند، خطرات فزاینده‌ای را ایجاد می‌کنند. 📎 گزارش کامل خـــبــرگــزاری ســـایــبــربـــان 👇 🛰 @cyberbannews_ir
10.1M حجم رسانه بالاست
مشاهده در ایتا
سم آلتمن: دیپ فیک ها امنیت جهانی را تهدید می‌کنند! 🔹سم آلتمن، مدیرعامل OpenAI، نسبت به خطرات جعل صدا و تصویر توسط هوش مصنوعی هشدار داد. 🔻او تأکید می‌کند مؤسسات مالی که همچنان از «شناسایی صدا» به‌عنوان روش احراز هویت استفاده می‌کنند، مرتکب اشتباهی بزرگ می‌شوند، زیرا فناوری‌های فعلی به راحتی توسط هوش مصنوعی شکسته می‌شوند. 🔹 آلتمن در مصاحبه‌های اخیر تصریح کرده که جعل‌های عمیق (Deepfakes) بزرگ‌ترین تهدید اجتماعی هوش مصنوعی هستند و به زودی شاهد جعل ویدیوهای زنده غیرقابل تشخیص در تماس‌ها خواهیم بود. 🔹او هشدار می‌دهد این فناوری هم‌اکنون در حملات باج‌افزاری با تقلید صدای اعضای خانواده سوءاستفاده شده و به سرعت در حال تبدیل شدن به بحرانی برای امنیت فردی و اعتماد عمومی است. خـــبــرگــزاری ســـایــبــربـــان 👇 🛰 @cyberbannews_ir