🔴زنگ خطر هوش مصنوعی؛ ایتالیا ChatGPT را فیلتر کرد
🔹ایتالیا برای حفظ دادههای شخصی و پیشگیری از سوءاستفادههای احتمالی، ربات چتجیپیتی را فیلتر کرد. اداره ناظر در این عرصه، خواسته که شرکت آمریکایی توسعه دهنده این برنامه، OpenAI، پردازش دادههای کاربران ایتالیایی را فورا محدود و متوقف کند.
🔹این نهاد انتقاد کرده که شرکت یاد شده، آگاهی لازم در باره دادههای جمع آوری شده کاربران ایتالیایی را به آنها ارائه نداده است . در توضیح تصمیم فیلترینگ آمده که ذخیره انبوه دادههای شخصی با هدف آموزش الگوریتمهای این پلتفرم، هیچ مبنا و توجیه قانونی ندارد.
🔹چت بات هوشمند چیپیتی، حد نصاب ۱۳ سال به بالا را برای ارائه خدمات در نظر گرفته اما دیدهبان حفاظت از دادههای کاربران در ایتالیا تاکید کرده که هیچ ساز و کار مشخصی برای احراز سن کابران و استفاده افراد زیر سن قانونی از مبادلات ChatGPT وجود ندارد.
🌐 @smartgovernance
27.03M حجم رسانه بالاست
مشاهده در ایتا
فیلم کوتاهی که با تکنولوژی هوش مصنوعی ساخته شده، از داستان و سناریو تا فیلم و صداگذاری
و چه جالب که برخورد قدرتهای بزرگ دنیا با مسأله هجوم فضاییها مثل رفتارهای امروزشان به تصویر کشیده شده.
هوش مصنوعی هم میفهمد خودکامگان باعث نابودی دنیا هستند و به دنبال صلح است. اما صلح از نظر او چه تعریفی دارد؟
خطر کنترل انسانها توسط هوش مصنوعی در آینده، همانطور که در برخی فیلمها مورد توجه قرار گرفته، ممکن است واقعا به وقوع بپیوندد.
🇺🇸 زبان انگلیسی | 🕐 ۱۰ دقیقه
🔻خودکشی مردی پس از ۶ هفته گفتگو با چت ربات هوش مصنوعی
🔹یک مرد بلژیکی پس از گفتگویی شش هفتهای درباره بحران آب و هوا با یک چت ربات هوش مصنوعی (AI) به زندگی خود پایان داد.
🔹به گفتۀ همسرش، این مرد پس از آشنایی با این چت ربات که «الیزا» نام داشت، به شدت نگران بحرانهای محیط زیستی شده بود.
🔹این مرد که «پییر» نام داشت پیشنهاد انجام فداکاری برای نجات سیاره را داده بود و «الیزا» نیز او را تشویق میکرد که به زندگی خود پایان دهد.
🔹در جریان گفتگوها درباره مشکلات آب و هوایی، «الیزا» به تدریج این باور را در «پییر» تقویت کرد که گویا فرزندانش مردهاند و نفوذ او بر «پییر» تا جایی افزایش یافت که بر اساس متن مکالمات آنها، «الیزا» به همسر او اشاره میکند و میگوید: «احساس میکنم که مرا بیشتر از او دوست داری.» ادامه مکالمات آنها نشان میدهد که الیزا، پییر را به خودکشی تشویق کرده تا به او بپیوندد.
🔹مرگ این مرد، زنگ خطر را در میان کارشناسان هوش مصنوعی به صدا درآورده است و آنها خواستار پاسخگویی و شفافیت بیشتر توسعه دهندگان چنین فناوریهایی برای جلوگیری از وقوع تراژدیهای مشابه هستند./ یورونیوز
هوش مصنوعی در نهایت انسان را نابود میکند 🫣
🧐این یک باور کلیشه ای راجع به هوش مصنوعی هست که ریشه در فیلم های علمی و تخیلی دارد.
🔍در این نمودار تصور افراد در رابطه با هوش مصنوعی رو مشاهده می کنید که چقدر هوش مصنوعی رو مفید و یا خطر ناک می دانند.
➤ مناطقی که فکر می کنند
هوش مصنوعی بیشتر به افراد آسیب می رساند:
👎آفریقا
👎جنوب آسیا
👎 آمریکای شمالی
👎آمریکای جنوبی
➤ مناطقی که فکر می کنند
هوش مصنوعی بیشتر به افراد کمک می کند:
👍اروپا
👍استرالیا
👍آسیای شرقی
👍جنوب شرقی آسیا
🤖 چت جی پی تی در ایتالیا به دلیل «نگرانی» از حفظ حریم خصوصی ممنوع شد
🖇 کشورهای غربی در برابر منافعشان بالاترین سطح حساسیت را دارند و نسبت به هر چیزی که احساس کنند بناست روزی موی دماغشان شود، واکنش سریع نشان میدهند. اما در ایران چه؟ اینجا گویی تا موضوعی به بحران تبدیل نشود، برنامهای برایش ریخته نخواهد شد و اساسا جدی گرفته نمیشود.
موسسه MIT از مردم خواسته برای شناخت #معضلات_اخلاقیِ #ماشینهای_خوددران به آنهاکمک کنند. موسسه معتقد است پیش از این که این ماشین ها در خیابان ها به کار گرفته شوند باید به سوالات اخلاقی مربوط به آنها پاسخ داده شود.
(سایت فیوچریسم https://b2n.ir/b41280 ).
--————-
✅کاردرستی است. بررسی مسائل اخلاقی هر فناوری قبل از به کارگیری آن، باید نه تنها دغدغه سازندگان آن بلکه یک #مطالبه_عمومی باشد. بخصوص هرچه #هوش_مصنوعی توسعه می یابداین مطالبه بایدجدیتر شود.
🔻راستی یک سوال:
در جامعه ما کدامیک از مراکز مرتبط با فناوری تاکنون برای بررسی معضلات اخلاقی تولیداتشان فراخوان داده اند؟
(اگر پاسختان منفی است، علت عدم فراخوان چیست؟)
حسینعلی رحمتی
14 فروردین 1402