eitaa logo
همت | هوش مصنوعی تربیتی 🧠
2.1هزار دنبال‌کننده
349 عکس
133 ویدیو
26 فایل
همت - هوش مصنوعی تربیتی 🧠 مشاوره، آموزش، پژوهش و توسعه اپلیکیشن نرم افزاری هوش مصنوعی وب سایت 💻 https://HemmatAI.IR محصولات نرم افزاری هوشمند دستیار تدبّر قرآنی 💎 و به زودی ... 💡 ارتباط با ادمین 📩 @hemmatadmin
مشاهده در ایتا
دانلود
My Recordingدکتر مینایی.mp3
زمان: حجم: 23.9M
📌 چگونه در هوش مصنوعی جزو ۱۰ کشور برتر شویم؟ 🎙 پروفسور مینایی پاسخ می‌دهند. 💎 صوت رویداد تربیت مربّی حکمرانی هوش مصنوعی ۲ 📆 اسفندماه ۱۴۰۲ 🕌 مدیریت رسانه و ارتباطات و مدیریت اساتید و نخبگانِ حوزه علمیه خراسان با همکاری موسسّات و مدارس حوزوی ➕ با همت باشیم 🧠 @HemmatAI_IR
کتابچه ابزارهای هوش مصنوعی.pdf
حجم: 676.1K
کتابچه ابزار های هوش مصنوعی 🏷 ➕ با همت باشیم 🧠 @HemmatAI_IR
بـــــــــــــــــــا توجــــــّه به درخواست مخاطبین محترم به زودی با استفاده از هوش مصنوعی در کانال بارگزاری خواهد شد. 🌺
لنگر معنایی (Semantic Anchoring) یک تکنیک قدرتمند در پرامپت نویسی لنگر معنایی چیست؟ در پرامپت نویسی، لنگر معنایی یعنی استفاده از یک کلمه، مفهوم یا عبارت کلیدی بسیار خاص در متن درخواست شما که مانند یک لنگر، توجه مدل را به سمت معنای دقیق و مورد نظر شما می‌کشد و از انحراف آن جلوگیری می‌کند. این کلمه، "مفهوم هسته" درخواست شماست. چرا اینقدر مهم است؟ مدل‌های زبانی بر اساس احتمالات کار می‌کنند. یک پرامپت مبهم می‌تواند مدل را به سمت متداول‌ترین مفاهیم سوق دهد. لنگر معنایی مانند یک قطب‌نما، مسیر را برای مدل مشخص می‌کند. ➕ با همت باشیم 🧠 @HemmatAI_IR
همت | هوش مصنوعی تربیتی 🧠
لنگر معنایی (Semantic Anchoring) یک تکنیک قدرتمند در پرامپت نویسی لنگر معنایی چیست؟ در پرامپت نویس
یک مثال و مقایسه پرامپت ساده و پرامپت همراه با کلمات درست و دقیق برای نمایش اثر لنگر معنایی (Semantic Anchoring) ➕ با همت باشیم 🧠 @HemmatAI_IR
شرکت‌هایی که از پارکینگ یا زیرشیروونی شروع کردند ... 🏷 @fanavar_ir
تفاوت مهندسی زمینه (Context Engineering) و مهندسی پرامپت (Prompt Engineering) - مهندسی زمینه: هدفش تأمین اطلاعات و داده‌های لازم برای مدل است (تمرکز بر "چیستی") مانند دادن اسناد و مدارک به یک دستیار قبل از شروع کار - مهندسی پرامپت: هدفش تعریف دقیق وظیفه و فرمت خروجی است (تمرکز بر "چگونی") مانند دادن دستورالعمل دقیق درباره نحوه انجام کار به صورت خلاصه مهندسی زمینه، مانند این است که قبل از جلسه تمام مدارک مورد نیاز را در اختیار همکارتان بگذارید. و مهندسی پرامپت مانند این است که به همکارتان بگویید "لطفاً این گزارش را در یک صفحه خلاصه کن و سه نکتهٔ اصلی آن را به صورت برجسته ذکر کن." برای بهترین نتیجه، معمولاً از هر دو روش با هم استفاده میکنیم: - اول اطلاعات لازم (زمینه) را در اختیار مدل میگذاریم، - سپس دستورالعمل دقیق (پرامپت) دربارهٔ نحوهٔ پردازش آن اطلاعات را ارائه میدهیم. به زبان ساده: - زمینه: آنچه دستیار باید بداند. - پرامپت: آنچه دستیار باید انجام دهد. ➕ با همت باشیم 🧠 @HemmatAI_IR
همت | هوش مصنوعی تربیتی 🧠
تفاوت مهندسی زمینه (Context Engineering) و مهندسی پرامپت (Prompt Engineering) - مهندسی زمینه: هدفش
یک متن تخصصی و حرفه‌ای ‌تر از کانال آقای مهندس سمیعی (از دانشجویان دانشگاه صنعتی شریف) درباره مهندسی زمینه و مقاله آنتروپیک درباره این موضوع: 👇
در مورد Context Engineering در چند سال اخیر اصطلاح prompt engineering پررنگ‌ترین مفهوم در طراحی راه‌حل‌های llm بوده. prompt engineering به صورت مشخص‌تر به این معناست که من چیزی که می‌خوام رو چطوری و با چه ادبیات و کلمه‌هایی برای llm توضیح بدم. در این اواخر اما یک اصطلاح تازه‌ای هم به نام context engineering به وجود اومده که ممکنه در نگاه اول شبیه به prompt engineering به نظر بیاد اما موضوعش یک درد و درمان جدایی هست. ماجرا اینه که هر چه قدر که llmها رشد کردند و ازشون در تسک‌های پیچیده‌تر و اصطلاحا long horizon تری (مثل مهندسی نرم‌افزار) استفاده شد از اونور میزان توکنی که بهشون به عنوان context باید داده بشه بیشتر و بیشتر می‌شه. این context خودش می‌تونه شامل چیزهای مختلفی نظیر system prompt یا tool call های ایجنت یا تاریخچه مکالمه‌اش با user باشه. حالا این بزرگ‌شدن context دو مشکل می‌تونه به وجود بیاره. یکی این که ممکنه اون قدر بزرگ بشه که ظرفیت context مدل‌های llm ای جا نشه و یکی دیگه هم این که حتی اگر context در حد ظرفیت llm هم باشه آزمایشات نشون دادند که هر چه قدر context بزرگتر بشه عملکرد llm افت پیدا می‌کنه و اصطلاحا llm یک بودجه اتنشن محدودی داره. در نتیجه توسعه‌دهنده باید تا حد امکان بتونه جوری context رو مهندسی کرده که اطلاعات مربوط با تعداد توکن کمتری به llm داده بشه. این که مثلا چه جاهایی از تاریخچه مکالمه رو به llm بدم، چه tool call هایی رو بدم و ... همه می‌تونن استراتژی‌های مختلف برای این مساله باشند. حالا Anthropic چند روز پیش اومده در بلاگی راجع به context engineering و ابعاد مختلفش صحبت کرده و یک سری توصیه و نیک‌روش (امروز دوستم آقای حبیبی داشت فحش میداد چرا از واژه‌های انگلیسی استفاده می‌کنیم، به همین دلیل به جای بست پرکتیس از نیک‌روش استفاده کردم) ارائه کرده. تنی چند از این توصیه‌هایی که به نظرم خودم جالب بودند اینها هستند: - یک context engineering موفق به این معنا هست که کوچکترین ست ممکن از توکن‌هایی رو پیدا کنیم که نقش سیگنال رو برای llm جوری بازی کنند که احتمال بهترین رفتار llm رو بیشتر کنند. در جایی که عملکرد مساوی بنابراین اولویت با اون ستی هست که کوچکتر باشه. - سیستم پرامپت باید نه اون قدر مبهم باشه که llm نفهمه دقیقا باید چی کار کنه و نه اون قدر با جزییات نوشته شده باشه که مستعد اورفیت و شکست روی نمونه‌ها باشه. یک جاهایی اون وسطها باید باشه. - روند ساخت سیستم پرامپت باید این جوری باشه که سعی بشه اول با یک پرامپت مینیمال روی بهترین llm موجود جواب گرفته بشه و بعد حالا از یک طرف سعی بشه تا failure mode رو با اضافه‌کردن توضیحات یا مثال هندل کرد. از طرف دیگه هم آروم آروم از بهترین مدل به ممکن‌ترین مدل (مدلی که هزینه‌اش بهمون بخوره) رسید. - میشه از tool ها به نحوی استفاده کرد که context مون کوچیکتر بشه. بدین منظور باید toolهایی داشته باشیم که بخشی از منطق مساله رو بدون این که نیاز باشه تو کانتکس tool یا agent های دیگه بیاریم به اونها بسپریم. این tool ها باید تا حدامکان خودنگهدار باشند و مرز کار منطقی که انجام می‌دن با هم مشخص باشه. - تکنیک few shot exampling با این که خوبه اما اکثرا به صورت اشتباهی استفاده میشه. باید مثال‌های دایورسی رو قرار داد تا مبادا مدل روی مثال‌های خاص اورفیت کنه. - برای تسک‌های long horizon و بهینه‌ترکردن context شون میشه سه استراتژی داشت: خلاصه کردن محتوا برای دورهای بعدی، قابلیت note taking و جداکردن conern های منطقی با sub agentها. در note taking این شکلی میشه که ایجنت میاد چیزایی که بهشون دست پیدا کرده رو یادداشت می‌کنه و عوض این که هر سری تو کانتکس خودش نگه داره یک جای دیگه ذخیره می‌کنه و هر وقت که نیاز شد می‌ره برش می‌داره میذاره تو کانتکس لینک بلاگ: https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents
5.2M حجم رسانه بالاست
مشاهده در ایتا
نرم افزار تبدیل صدا به متن با قابلیت اجرا به صورت محلی و پشتیبانی از زبان فارسی https://handy.computer ➕ با همت باشیم 🧠 @HemmatAI_IR