eitaa logo
دبيرخانه هم اندیشی هوش مصنوعی
573 دنبال‌کننده
205 عکس
29 ویدیو
3 فایل
🔶 ادمین: @ITsetad
مشاهده در ایتا
دانلود
🔴زنگ خطر هوش مصنوعی؛ ایتالیا ‌ChatGPT را فیلتر کرد 🔹ایتالیا برای حفظ داده‌های شخصی و پیشگیری از سوءاستفاده‌های احتمالی، ربات چت‌جی‌پی‌تی را فیلتر کرد. اداره ناظر در این عرصه، خواسته که شرکت آمریکایی توسعه دهنده این برنامه، OpenAI، پردازش داده‌های کاربران ایتالیایی را فورا محدود و متوقف کند. 🔹این نهاد انتقاد کرده که شرکت یاد شده، آگاهی لازم در باره داده‌های جمع آوری شده کاربران ایتالیایی را به آنها ارائه نداده است . در توضیح تصمیم فیلترینگ آمده که ذخیره انبوه داده‌های شخصی با هدف آموزش الگوریتم‌های این پلتفرم، هیچ مبنا و توجیه قانونی ندارد. 🔹چت بات هوشمند چی‌پی‌تی، حد نصاب ۱۳ سال به بالا را برای ارائه خدمات در نظر گرفته اما دیده‌بان حفاظت از داده‌های کاربران در ایتالیا تاکید کرده که هیچ ساز و کار مشخصی برای احراز سن کابران و استفاده افراد زیر سن قانونی از مبادلات ‌ChatGPT وجود ندارد. 🌐 @smartgovernance
آیا میشود chatgpt را گول زد؟؟!!
27.03M حجم رسانه بالاست
مشاهده در ایتا
فیلم کوتاهی که با تکنولوژی هوش مصنوعی ساخته شده، از داستان و سناریو تا فیلم و صداگذاری و چه جالب که برخورد قدرتهای بزرگ دنیا با مسأله هجوم فضایی‌ها مثل رفتارهای امروزشان به تصویر کشیده شده. هوش مصنوعی هم می‌فهمد خودکامگان باعث نابودی دنیا هستند و به دنبال صلح است. اما صلح از نظر او چه تعریفی دارد؟ خطر کنترل انسان‌ها توسط هوش مصنوعی در آینده، همانطور که در برخی فیلم‌ها مورد توجه قرار گرفته، ممکن است واقعا به وقوع بپیوندد. 🇺🇸 زبان انگلیسی | 🕐 ۱۰ دقیقه
🔴چت جی پی تی در ایتالیا به دلیل «نگرانی» از حفظ حریم خصوصی ممنوع شد.
🔻خودکشی مردی پس از ۶ هفته گفتگو با چت ربات هوش مصنوعی 🔹یک مرد بلژیکی پس از گفتگویی شش هفته‌ای درباره بحران آب و هوا با یک چت ربات هوش مصنوعی (AI) به زندگی خود پایان داد. 🔹به گفتۀ همسرش، این مرد پس از آشنایی با این چت ربات که «الیزا» نام داشت، به شدت نگران بحران‌های محیط زیستی شده بود. 🔹این مرد که «پی‌یر» نام داشت پیشنهاد انجام فداکاری برای نجات سیاره را داده بود و «الیزا» نیز او را تشویق می‌کرد که به زندگی خود پایان دهد. 🔹در جریان گفتگوها درباره مشکلات آب و هوایی، «الیزا» به تدریج این باور را در «پی‌یر» تقویت کرد که گویا فرزندانش مرده‌اند و نفوذ او بر «پی‌یر» تا جایی افزایش یافت که بر اساس متن مکالمات آنها، «الیزا» به همسر او اشاره می‌کند و می‌گوید: «احساس می‌کنم که مرا بیشتر از او دوست داری.» ادامه مکالمات آنها نشان می‌دهد که الیزا، پی‌یر را به خودکشی تشویق کرده تا به او بپیوندد. 🔹مرگ این مرد، زنگ خطر را در میان کارشناسان هوش مصنوعی به صدا درآورده است و آنها خواستار پاسخگویی و شفافیت بیشتر توسعه دهندگان چنین فناوری‌هایی برای جلوگیری از وقوع تراژدی‌های مشابه هستند./ یورونیوز
هوش مصنوعی در نهایت انسان را نابود میکند 🫣 🧐این یک باور کلیشه ای راجع به هوش مصنوعی هست که ریشه در فیلم های علمی و تخیلی دارد. 🔍در این نمودار تصور افراد در رابطه با هوش مصنوعی رو مشاهده می کنید که چقدر هوش مصنوعی رو مفید و یا خطر ناک می دانند. ➤ مناطقی که فکر می کنند هوش مصنوعی بیشتر به افراد آسیب می رساند: 👎آفریقا 👎جنوب آسیا 👎 آمریکای شمالی 👎آمریکای جنوبی ➤ مناطقی که فکر می کنند هوش مصنوعی بیشتر به افراد کمک می کند: 👍اروپا 👍استرالیا 👍آسیای شرقی 👍جنوب شرقی آسیا
🤖 چت جی پی تی در ایتالیا به دلیل «نگرانی» از حفظ حریم خصوصی ممنوع شد 🖇 کشورهای غربی در برابر منافعشان بالاترین سطح حساسیت را دارند و نسبت به هر چیزی که احساس کنند بناست روزی موی دماغشان شود، واکنش سریع نشان می‌دهند. اما در ایران چه؟ اینجا گویی تا موضوعی به بحران تبدیل نشود، برنامه‌ای برایش ریخته نخواهد شد و اساسا جدی گرفته نمی‌شود.
موسسه MIT از مردم خواسته برای شناخت به آنهاکمک کنند. موسسه معتقد است پیش از این که این ماشین ها در خیابان ها به کار گرفته شوند باید به سوالات اخلاقی مربوط به آنها پاسخ داده شود. (سایت فیوچریسم https://b2n.ir/b41280 ). --————- ✅کاردرستی است. بررسی مسائل اخلاقی هر فناوری قبل از به کارگیری آن، باید نه تنها دغدغه سازندگان آن بلکه یک باشد. بخصوص هرچه توسعه می یابداین مطالبه بایدجدیتر شود. 🔻راستی یک سوال: در جامعه ما کدامیک از مراکز مرتبط با فناوری تاکنون برای بررسی معضلات اخلاقی تولیداتشان فراخوان داده اند؟ (اگر پاسختان منفی است، علت عدم فراخوان چیست؟) حسینعلی رحمتی 14 فروردین 1402