1.96M حجم رسانه بالاست
مشاهده در ایتا
#جعل_عمیق
قبلا می گفتیم تا خودمان با چشمانمان نبینیم باور نمی کنیم، اما امروزه حتی دیگر به آنچه با چشمانمان می بینم هم نمی توانیم اعتماد کنیم.
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود.
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند.
@asrehooshmansdi
20.74M حجم رسانه بالاست
مشاهده در ایتا
اولین ویدیوی ساخته شده با استفاده از #هوش_مصنوعی و هنرنمایی جمعی از شخصیت های ایران زمین؛ از مصدق و ستارخان تا شهید آوینی و شهید چمران و ....
پازل
#دیپ_فیک #deep_fake #جعل_عمیق #ایران_من #همایون_شجریان
@asrehooshmandi
💠 #جعل_عمیق و کشمکش بین این #فناوری و تشخیصدهندههای آن
⚡ جعل عمیق یا #دیپ_فیک به زودی همانند #فتوشاپ به صورت گسترده مورد استفاده همگان قرار میگیرد و از آنجایی که هنوز روش مناسبی برای تشخیص این فناوری وجود ندارد، نگرانیها از در دسترس قرار گرفتن این تکنولوژی افزایش یافته است.
⚡ تشخیصدهندههای جعل عمیق با زیر و رو کردن تصویر و با پیدا کردن درههای وهمی و شناسایی کوچکترین اختلافها، به دنبال جزئیاتی هستند که با عکس جور در نمیآید.
📌 برای خواندن متن کامل مقاله به لینک زیر مراجعه کنید:
🔗 yun.ir/833kr3
@asrehooshmandi
7.75M حجم رسانه بالاست
مشاهده در ایتا
🔻#جعل_عمیق (Deep Fake) دارد به خطری جدی تبدیل میشود !!!
کمکم با عمومی شدن هوش مصنوعی اصالت و صحت بسیاری از کلیپها، با تردید مواجه خواهد شد و این میتواند علیه امنیت یک جامعه بسیار خطرناک شود.
قبلا میگفتیم تا با چشم خودم نبینم باور نمیکنم، الان و با توجه به شرایط موجود رخ داده در حوزه تکنولوژی، با چشم خودتان دیدید هم باور نکنید.
@asrehooshmandi