✔️ دیپ فیک!
یکی از(فقط یکی از) ابزار هایی که امروز در دسترس عموم مردم قرار داره و حالا با استفاده از هوش مصنوعی هرکسی میتونه فیلم های جعلی از شما بسازه...
❎ قبلاً نمونه هایی از تغییر صدا با هوش مصنوعی رو دیده بودید مثل این صدای حاج قاسم که با هوش مصنوعی ساخته شده یا این صدای شیرفرهاد ولی...
همه اینا در جهت درست استفاده شده ولی چه تضمینی وجود داره که در جهت اشتباه استفاده نشه؟؟
:: علاوه بر جعل صدا، میشه تصویر شمارو جعل کرد!
❌ حتما فیلم های زیر رو ببینید ❌
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
908K حجم رسانه بالاست
مشاهده در ایتا
تو چند ثانیه با هوش مصنوعی میشه چهرت رو به چهره هر کسی تغییر بدی!!
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
1.1M حجم رسانه بالاست
مشاهده در ایتا
❌ اینم یه نمونه دیگه...
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
فکر کنید صبح شده و تمام دوستان و آشنایانتون بهتون مدام زنگ می زنند؛ تعجب می کنید و با خودتون می گین مگه چی شده؟! در همین حین، باز گوشیتون زنگ می خوره! گوشی رو بر می دارید و هنوز سلام نکرده بهتون از پشت خط کلی بد و بیاره میگن و بعد قطع می کنن! چند لحظه ای حسابی تو کُپ می رین و به خودتون می گین مگه امکان داره؟ من که دیشب کلا خواب بودم!
در کمال ناباوری می رید تو اکسپلورر اینستاگرامتون و می بینید یه کلیپ از شما ترند شده! کلی حرف های عجیب و غریب توش زدین؛ کلا هَنگ می کنید! نمی دونید چطوری اثبات کنید اون فیلم شما نیستید!!
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
💢 جلوی خیلی از این فیلم ها و صداهارو نمیشه گرفت ولی 💢
✅ شنبه قراره چندنکته کاربردی به شما بگیم که احتمال گرفتار شدن شما خیلی خیلی کمتر بشه!
☑️ شنبه منتظر ما باشید.
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
سلام🌱
ولادت امام باقر «ع» مبارک🌹
✅ بریم همونطور که گفتیم درباره دیپ فیک و راه های جلوگیری از اون صحبت کنیم
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
تو پیام های قبلی گفتیم که دیپ فیک چیه و چه کارهایی میتونه انجام بده
❌ حالا میخوام بهتون بگم که چه آسیب هایی داره ❌
1️⃣ سوء استفاده در حریم خصوصی: با استفاده از دیپ فیک، ممکن است افراد بدون اجازه در موقعیتها یا فعالیتهایی نشان داده شوند که واقعی نیست و به حریم خصوصی آنها آسیب میرساند.
2️⃣ تاثیر منفی بر اعتماد عمومی: وقتی مردم نمیتوانند به صحت تصاویر و ویدئوهایی که میبینند اطمینان داشته باشند، اعتماد عمومی به رسانهها و اطلاعات کاهش مییابد.
3️⃣ استفاده در جرائم سایبری: دیپ فیک میتواند برای اهداف جنایی مانند اخاذی، کلاهبرداری یا تهدید استفاده شود. تصور کنید، تلفن حسابدار شرکت زنگ میخوره و مدیر اون شرکت میگه که 2 میلیارد تومان به فلان شماره کارت بفرست. بعد از واریز پول مشخص میشه اونی که پشت تلفن بوده اصلا مدیرعامل نبوده و با استفاده از هوش مصنوعی صدای مدیرعامل رو تقلید کرده.
4️⃣ گمراهکننده و تحریف اطلاعات: دیپ فیک میتواند برای ایجاد اطلاعات نادرست یا گمراهکننده استفاده شود. این مسئله میتواند در زمینههای سیاسی، رسانهای و اجتماعی تاثیرات منفی داشته باشد.
5️⃣ سیاست: در برخی موارد، دیپ فیکها برای تحریف صحبتها یا اعمال سیاستمداران استفاده شدهاند. برای مثال، ویدئوهایی که در آنها سیاستمداران چیزهایی را میگویند یا انجام میدهند که واقعاً هرگز اتفاق نیفتاده، میتواند برای تأثیرگذاری منفی بر رأی دهندگان یا تخریب شخصیت افراد استفاده شود.
6️⃣ تبلیغات و بازاریابی: در مواردی، تکنیکهای دیپ فیک برای ساخت تبلیغات استفاده میشود که شخصیتهای مشهور را در موقعیتهایی نشان میدهند که واقعاً در آن قرار نگرفتهاند. این ممکن است بدون رضایت افراد مورد نظر انجام شود و به شهرت و اعتبار آنها آسیب بزند.
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
⭕️ نمیشه خطر دیپ فیک و ویدیو های جعلی رو 100% کاهش داد یا کاری کرد که از ما دیپ فیک نسازن ولی
✅ یسری کارها میشه کرد که احتمال این خطرات کمتر بشه
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
✳️ برای جلوگیری از فریب خوردن توسط دیپ فیک و تشخیص ویدئوهای جعلی، میتوانید اقدامات زیر را انجام دهید:
1️⃣ آگاهی و دانش: اولین گام، آشنایی با مفهوم دیپ فیک و نحوه کارکرد آن است. هرچه بیشتر در مورد این تکنولوژی بدانید، بهتر میتوانید آن را تشخیص دهید.
2️⃣ تجزیه و تحلیل دقیق ویدئو: توجه به جزئیات ویدئو میتواند کمک کند. مواردی مانند همراستایی نامناسب لبها با صدا، ابراز چهرههای غیرطبیعی یا ناهماهنگ، و ویژگیهای غیرمعمول پوست میتواند نشانههایی از دیپ فیک باشد.
3️⃣ بررسی منبع ویدئو: همیشه منبع ویدئو را بررسی کنید. اگر ویدئو از یک منبع ناشناخته یا غیرقابل اعتماد منتشر شده باشد، باید به آن شک کنید.
4️⃣ استفاده از ابزار تشخیص دیپ فیک: ابزارهای آنلاین و نرمافزارهایی وجود دارند که میتوانند در تشخیص دیپ فیکها کمک کنند. این ابزارها معمولاً از یادگیری ماشین برای تحلیل و شناسایی عناصر جعلی در ویدئوها استفاده میکنند.
5️⃣ مقایسه با سایر منابع: اگر ویدئویی مشکوک به نظر میرسد، سعی کنید آن را با اطلاعات دیگر منابع مقایسه کنید. بررسی کنید که آیا سایر رسانههای معتبر همان خبر یا محتوا را منتشر کردهاند یا خیر.
6️⃣ آگاهی از زمینه و محتوا: درک زمینهای که ویدئو در آن قرار دارد میتواند مهم باشد. اگر محتوای ویدئو با واقعیتهای شناخته شده یا با موقعیتهای منطقی ناهماهنگ باشد، احتمال دارد که جعلی باشد.
7️⃣ استفاده از تفکر انتقادی: همیشه به طور انتقادی به اطلاعات نگاه کنید. سوال کنید، شک کنید و به دنبال دلایل و مدارک باشید.
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
✳️ برای جلوگیری از ساخت دیپ فیک از خودتان، میتوانید اقدامات زیر را انجام دهید:
1️⃣ محافظت از تصاویر و ویدیوهای شخصی: از به اشتراک گذاشتن بیش از حد تصاویر و ویدیوهای خود در شبکههای اجتماعی یا سرویس های غیرمطمئن و دیگر پلتفرمهای آنلاین خودداری کنید. تصاویر و صدای خودتون رو برای هرکسی ارسال نکنید. هرچه تصاویر و ویدیوهای کمتری از شما در دسترس عموم قرار داشته باشد، ساخت دیپ فیک از شما دشوارتر خواهد بود.
2️⃣ مراقبت از اطلاعات حساس: از به اشتراک گذاشتن اطلاعات حساس یا شخصی در محیطهای آنلاین که ممکن است به سادگی دستکاری شوند، اجتناب کنید.
3️⃣ آگاهی در مورد فیشینگ و امنیت سایبری: مراقب حملات فیشینگ و سرقت اطلاعات باشید. از اشتراکگذاری اطلاعات شخصی یا حساس در پاسخ به درخواستهای مشکوک خودداری کنید.
4️⃣ آموزش و آگاهسازی دیگران: به دوستان، خانواده و همکاران خود در مورد خطرات دیپ فیک و اهمیت حفظ حریم خصوصی آموزش دهید.
💢 با این اقدامات، میتوانید خطر ساخته شدن دیپ فیک از خودتان را کاهش دهید. البته، توجه داشته باشید که هیچ راهکاری 100% تضمینی نیست، اما این اقدامات میتوانند به کاهش قابل توجه خطر کمک کنند.
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
💢 کلام آخر: از دیپ فیک ساده گذر نکنید 💢
☑️ درسالی که گذشت 143.000 محتوای جعلی با دیپ فیک از افراد ساخته شده( تصاویر نامناسب افراد و نوجوانان، کلاه برداری با صدای افراد از خانواده و آشنایان اون و...)
✅ نکاتی که گفته شد رو جدی بگیرید تا این خطرات رو کاهش بدید.
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
سلام🌱
امروز اومدم با چندتا تصویر جذاب و فوق العاده که با هوش مصنوعی ساختیم🤩
✳️ به هوش مصنوعی گفتیم که آشپزخونه های امروزی رو با روحیه و طراحی ایرانی بساز
✅ بریم نتیجه رو ببینیم✌️
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید