🔻تقلید صدای یک مدیر شرکت با فناوری #دیپ_فیک و سرقت۲۴۳ هزار دلاری
یک کلاهبردار با استفاده از فناوری "deepfake" و نرم افزار #هوشمصنوعی، صدای مدیر یک شرکت آلمانی را تقلید و از زیرمجموعه آن در انگلیس ۲۴۳ هزار دلار سرقت کرد.
👈بنابر گزارش Futurism، این فرد با استفاده از نرمافزار هوش مصنوعی تولید صوت، صدای مدیر ارشد اجرایی شرکت مادر را تقلید کرده و از مدیر زیرمجموعه در انگلیس خواسته تا طی یک ساعت مبلغی را به یک شرکت تهیهکننده بلغارستانی انتقال دهد و همچنین تضمین کرده بود این مبلغ بازپرداخت میشود.
👈مدیر زیرمجموعه انگلیسی که با لهجه آلمانی و ویژگیهای سخن گفتن رئیس خود آشنا بوده نیز درباره این تماس تردید نمیکند. اما نه تنها مبلغ ارسالی بازگشت داده نشد، بلکه کلاهبردار خواهان انتقال مبلغ دیگری نیز شد اگرچه این بار مدیر انگلیسی از انجام آن سرباز زد.
👈درنهایت مشخص شد مبلغی که به بلغارستان شده، درنهایت به مکزیک و نقاط دیگر ارسال شده است. مقامات قضایی هنوز مشغول بررسی این عملیات کلامنتقلهبرداری سایبری هستند. طبق نوشته وال استریت ژورنال این حادثه در ماه مارس اتفاق افتاده و نام شرکت و اطلاعات دیگر نیز فاش نشده است.
#دیپ_فیک
بررسی اخلاقی دیپ فیک (Deepfake) یا جعل عمیق
✅ #دیپ_فیک یا جعل عمیق، نوعی فناوری برای ترکیب تصویر انسان بر پایه هوش مصنوعی است که در جهت تولید یا تغییر محتوای ویدیویی استفاده می شود، تا ویدیو نمایانگر چیزی باشد که در واقع اصلاً اتفاق نیفتاده است.
این شبیه سازی به هر کاربری قدرت می دهد که تصاویر یک شخص را بر روی شخص دیگر منطبق کند و یک ویدیوی را برای ترویج محتوای مورد نظر تولید کند.
🔸 این تکنولوژی کارکردهای اخلاقی مثبتی همچون صرفه جویی در مخارج را به وجود آورده است؛ مثلا دیگر نیازی نیست از بازیگران مشهور و گران قیمت استفاده شود و کافی است که بازیگران معمولی این نقشها رو ایفا کنند و در نهایت با فناوری #دیپ_فیک؛ تصاویر بازیگران معروف را (با اجازه خودشان) بر روی آنها شبیه سازی شود.
همچنین با این نرم افزار می توان افرادی که در میان ما نیستند و یا از دنیا رفته اند، شبیه سازی کرد و یاد و خاطره آنها زنده بماند.
♦️چالش های اخلاقی تکنولوژی دیپ فیک بسیار بیشتر از کارکردهای مثبت آن است.
از جمله چالش ها اخلاقی این نرم افزار می توان به موارد ذیل اشاره کرد:
1- دشواری تشخیص حق از باطل:
یکی از چالش های اخلاقی این نرم افزار این است که دیگر تشخیص حق از باطل بسیار سخت و دشوار می شود و می توان گفت با همگانی شدن این نرم افزار به دورانی می رسیم که دیگر نمیتواند حق و باطل را از هم تشخیص بدهیم.
اگر امیرالمومنین علی (ع) معیار حق بودن را دیدن با چشم معرفی می کند و می فرماید: « باطل آن است که بگویی شنیدم، و حق آن است که بگویی دیده ام» (نهج البلاغه، خطبه 141) با ظهور دیپ فیک، دیگر نمی توان به این معیار در دیدن فیلم افراد اعتماد کرد.
2- از بین رفتن اعتماد:
خطر دیگر این است که اعتماد افراد به یکدیگر از بین می رود. همچنین دیگر نمی توان به آن چه که انسان با دیده خود می بیند اعتماد کند. اگر در گذشته میگفتند تا چیزی را به چشم خودت ندیدهای، اعتماد و باور نکن! اما با ظهور دیپ فیک باید به همه چیز تردید کنیم که این منجر به از بین رفتن اعتماد افراد به همدیگر و بالاتر از آن از بین رفتن اعتماد افراد به دیدگان خود است.
3- ساخت اخبار جعلی و دروغ:
با در اختیار داشتن این نرم افزار می توان یک سری اخبار جعلی و دروغ به ویژه از زبان افراد مهم و سیاسی ساخت که این می تواند پیامدهای منفی فراوانی همچون برهم زدن آرامش افراد و جامعه، تغییر دادن مسیر صحیح یک جامعه، بردن آبروی افراد و... به دنبال داسته باشد.
4- باورپذیری سریع:
از آثار دیگر تکنولوژی جعل عمیق این است که افراد ممکن است با دیدن ویدیوهایی که با این تکنولوژی ساخته می شود، محتوای آن را سریع باور کنند و بدان اعتماد کنند؛ چرا که دیپ فیک به گونه ای فیلم افراد را می سازد که باور نکردن آن سخت و دشوار است.
از آنجایی که باورپذیری سریع و بدون دلیل محکم، کاری پسندیده و صحیحی نیست، یکی از چالش های اخلاقی دیپ فیک باورپذیری سریع می باشد.
5- دزدی و کلاهبرداری:
به راحتی می توان با شبیه سازی #دیپ_فیک، با ساخت یک فیلم که در آن از کارمندان یک شرکت یا افراد درخواست پول و یا چیزهای با ارزش دیگری کرد، که این منجر به دزدی و کلاهبرداری می گردد.
6- انتساب محتوای دروغ به افراد:
به وسیله این نرم افزار، فرد در یک صحنه ای حاضر میشود و کاری را انجام میدهد و یا سخنی می زند، بدون اینکه روح آن فرد از آن محتوا خبر داشته باشد؛ که تمام این موارد مصداقی از دروغ می باشد.
7- نقض حریم خصوصی افراد:
کسانی که عکس و فیلم های افراد را به عنوان داده به این نرم افزار می دهند و بعد از آن فیلمی دروغین منتسب به افراد می سازند، در حقیقت حریم خصوصی آن افراد را نقض می کنند؛
چرا که محتوایی را به افراد نسبت می دهند که افراد از آن بی خبر هستند و آن افراد رضایتی به آن محتوا و انتشار ان ندارند و با دیدن آن، ناراحت می شوند.
8- انتقام گیری از افراد:
#دیپ_فیک زمینه انتقام گیری و تصفیه حساب های شخصی را به راحتی برای افراد به وجود می آورد؛ به عنوان مثال کسی که قصد انتقام گیری از فردی داشته باشد، با به دست آوردن تصاویر آن فرد که در شبکه های مجازی به اشتراک گذاشته است، با ساخت فیلم پورن از آن فرد انتقام بگیرد.
تکنولوژی دیپ فیک یا جعل عمیق چالش های اخلاقی دیگری نیز به دنبال خود دارد که اجمالا به آنها اشاره می شود: شایعه پردازی، تهمت و افتراء زنی، غیبت، تفرقه اندازی، تصمیم گیری غلط، قضاوت اشتباه و... .
#دیپ_فیک
#جعل_عمیق
#اخفا
#سبحان_نقدی_پور
🔸️الزامات مواجهه با اخبار و تصاویر و ویدئوهای جعلی |
🔹️الگویی برای روابط عمومی ها
بخش نخست
✍ مریم سلیمی، پژوهشگر ارتباطی و مدرس سوادهای رسانه ای، خبری و بصری
🔹️خطر اخبار و تصاویر جعلی و از جمله دیپ فیک ها یا ویدئوهای از پایه جعلی، فقط به افراد صاحب شهرتی همچون دولتمردان، سیاستمداران، سلبریتی ها و... محدود نبوده و به شدت سازمانها، نهادها، ارگانها و... را نیز تهدید می کند. در این میان بیش از هر زمان، ضرورت هوشیاری روابط عمومی ها و فعالان این واحدها حس می شود.
🔹️خطر اخبار و تصاویر جعلی و از جمله دیپ فیکها یا ویدئوهای از پایه جعلی، فقط به افراد صاحب شهرتی همچون دولتمردان، سیاستمداران، سلبریتی ها و… محدود نبوده و به شدت سازمانها، نهادها، ارگانها و… را نیز تهدید می کند.در این میان بیش از هر زمان، ضرورت هوشیاری روابط عمومی ها و فعالان این واحدها حس می شود.
🔹️عدم امکان تشخیص جعلی یا واقعی بودن ویدئوها از سوی مخاطبان یا ذینفعان یک سازمان، می تواند گاه به آسیبهای جبران ناپذیری منجر شود که این آسیبها می توانند دامنه ای وسیع از عدم اعتماد به سازمان تا صدماتی در ابعاد امنیتی، اقتصادی، سیاسی، اجتماعی و… و حتی سلامتی روحی و جسمی را شامل شوند.
برخی رسانه های اجتماعی در تلاش هستند که بتوانند ویدئوهای جعلی را با هشدارهایی به مخاطبان و کاربران بشناسانند. ولی به هر تقدیر در این حوزه یاری گرفتن از هوش مصنوعی، بهره گیری از اپلی کیشن ها (مانند Truepic) و سایتهای ویژه تشخیص فیلمها و ویدئوهای جعلی و نیز جستجوی معکوس می تواند یاری گر فرد در تشخیص این ویدئوهاست
🔹️🔹️اقدامات لازم
🔹️پیش از هر گونه مواجهه با اخبار و تصاویر جعلی، روابط عمومی ها نیازمند آن هستند تا اقداماتی را صورت دهند که از برخی در ادامه یاد می شود:
🔹️ارتقای سوادهای نوینی همچون سواد رسانه ای، خبری و بصری در فعالان حوزه روابط عمومی را باید ضروری دانست که در مسیر این مهم، برگزاری دوره هایی برای ارتقای این سوادها و آشنایی با تاکتیکها و تکنیکهای مربوطه و… می تواند اثرگذار باشد.
🔹️ارتباط موثر با مسئولان و کارشناسان واحدهای مختلف سازمانی و تعامل موثر با آنها و نیز داشتن بانک اطلاعات کامل از آنها از دیگر ضروریات است.
🔹️داشتن ارتباط و تعامل مناسب با سازمانها و واحدهای برون سازمانی به خصوص هم صنف و بهره مندی از بانک اطلاعاتی به روز، از جمله این الزامات است.
🔹️بهره مندی سامانه های مختلف ارتباط با مشتریان و…، برای ارسال پیامک یا هرگونه اقدام احتمالی در مواجهه با اخبار و تصاویر جعلی در صورت نیاز، ضروری است.
🔹️روابط عمومی ها در کنار ارتقای سوادهای خود باید موجبات ارتقای سوادهای رسانه ای، خبری و بصری مدیران، کارکنان، مشتریان و… را در قالبهای مختلف آموزشی، اطلاع رسانی و… فراهم کرده و توان تشخیص اخبار و تصاویر جعلی و غیرجعلی را در آنها ارتقا باشند تا این افراد بتوانند در مواجهه با اخبار و تصاویر جعلی احتمالی مرتبط با سازمان، عملکرد و واکنش بهتری داشته باشند.
🔹️در بحث تشخیص تصاویر جعلی می توانند توصیه هایی در خصوص بهره گیری از جستجوی معکوس، توجه دقیق به جزئیات، توجه به متن، زیرمتن و فرامتن، استفاده از نرم افزار های کنترل اصالت عکس و… داشته باشند.
بهره مندی از ابزارها و امکانات روز رصد و نظارت بر اخبار و تصاویر و… و حتی ایجاد واحدی در روابط عمومی ها برای رصد و تحلیل داده ها به خصوص داده های بزرگ می تواند راهگشا باشد.
🔹️ارتباط موثر با رسانه ها و تعامل سازنده با آنها و نیز داشتن بانک اطلاعات جامع و کامل برای هرگونه تماسی در زمانهای لازم، از دیگر الزامات است/ شارا
ادامه دارد
#اخبار_جعلی
#روابط_عمومی
#دیپ_فیک
6.05M حجم رسانه بالاست
مشاهده در ایتا
ضریب اعتماد به دیدنی هایمان روز به روز در حال افول است...
به دنیای فریب و زیبای #دیپ_فیک خوش آمدید...
شاید قرار است که دیگر جعل واقعیت یا بهتر بگویم #واقعیت_جعلی به بخشی از زندگی آینده تبدیل شود...
#تکنولوژی_جعل_واقعیت
7.13M حجم رسانه بالاست
مشاهده در ایتا
🔆 تکنولوژی قابل تامل و خطرناک
🎞 اولین موزیکویدیوی ساختهشده با تکنیک #دیپ_فیک در ایران، با صدای همایون شجریان و هنرنمایی چهرههای جمعی از شخصیت های ایران زمین؛ از مصدق و ستارخان تا شهید آوینی و شهید چمران و ....
📹در تکنیک دیپ فیک (Deepfake) جعل عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد #فردی، #حرف_خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند.
🤔با این حساب دیگر نمیتوان به هر کلیپی اطمینان کرد و سخنان منسوب به هر شخصی را باور کرد.
👥💬🗣 رسانه باشید و این مطلب را با دوستان خود به اشتراک بگذارید.
#دیپ_فیک
#تکنولوژی
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
فیلم های فضای مجازی الزاما واقعی نیستند
با فناوری های جدید، دیگر به آنچه در فیلم ها میبینید، اعتماد نکنید
#دیپ_فیک
❇️در خدمت آشوب
🔸دیپ فیک فناوریه که برای طیف وسیعی از اهداف، مانند جعل دستورات رهبران نظامی، ایجاد سردرگمی در میان مردم و نیروهای مسلح و مشروعیت بخشیدن به جنگ ها و قیام ها کاربرد داره.
🔹طبق بررسی اندیشکده بروکینگز، فناوری دیپ فیک ابزار مهمی برای پیشبرد آمریکا در جهانه که باید بهش توجه بشه.
🔸 با توجه به پیشرفتهای صورت گرفته مقامات امنیتی و اطلاعاتی در آمریکا و سایر دموکراسیها انگیزههای قوی برای استفاده از دیپ فیکها علیه دشمنان خود، بهویژه در زمینه درگیریهای مسلحانه، خواهند داشت.
🔹 پیشنهاد اندیشکده بروکینگز اینه که با شناسایی ذینفعان استفاده از فناوری دیپ فیک هم افزایی صورت بگیره و بجای گزینه نظامی علیه کشورهای رقیب بکار گرفته بشه!
🔸 با توجه به اینکه فناوری دیپ فیک به محتوای صوتی و تصویری دست میبره و اون رو به شکل دلخواه تغییر میده، در جنگ رسانه ای کاربرد وسیعی خواهد یافت.
#دیپ_فیک #جنگ #بروکینگز #فناوری
🔄https://www.brookings.edu/research/deepfakes-and-international-conflict/
attacheeintl
@resane_ravanshenasi