آموزش iOS

نحوه استفاده از ربات چت محلی MLC مشابه ChatGPT در MacOS

هوش‌مصنوعی درحال طوفان به‌پا کردن درجهان است، درحالیکه می‌توانید از گوگل بارد و ChatGPT استفاده کنید، می‌توانید از یک میزبان محلی در مک نیز استفاده کنید. دراین مقاله نحوه استفاده از برنامه جدید چت MLC LLM را آموزش خواهیم داد. هوش‌مصنوعی (AI) درعلم کامپیوتر پیشرو است و باعث ایجاد هیاهوی زیادی در دنیای محاسبات شده است.

ربات‌های چت، برنامه‌هایی مبتنی بر هوش‌مصنوعی که کاربران می‌توانند بعنوان متخصص باآنها صحبت کنند، از محبوبیت کمتری برخوردار هستند. چت‌بات‌ها ظاهراً دانشی تخصصی درمورد طیف گسترده‌ای از موضوعات عمومی و تخصصی دارند و با سرعتی سرسام‌آور درحال رشد هستند. ChatGPT تقریباً درمورد هرموضوعی دانش تخصصی دارد و می‌تواند در لحظه، به‌سوالات پاسخ دهد. سوالاتی که ساعت‌ها و یا شاید روزها زمان نیاز دارند. تقریباً همه فهمیده‌اند که می‌توانند از هوش‌مصنوعی برای سرعت بخشیدن به کارهایشان استفاده کنند و در زمان صرفه‌جویی کنند.

بااین اوصاف، برخی از برنامه‌های هوش‌مصنوعی یک نقطه ضعف دارند و آن‌هم این است که نتایج نیاز به تأیید دارند. چراکه هوش‌مصنوعی می‌تواند داده‌هایی را ارائه دهد که شمارا به‌اشتباه بیاندازد. توسعه‌دهندگان نرم‌افزار و شرکت‌های نرم‌افزاری به سراغ «کپیلوت‌ها» رفته‌اند؛ چت‌ربات‌های تخصصی که می‌توانند به توسعه‌دهندگان کمک کنند تا با نوشتن طرح کلی توابع یا روش‌ها به‌طور خودکار، کد را بنویسند که درنهایت توسط یک توسعه‌دهنده تأیید می‌شود.

درحالیکه درزمان صرفه‌جویی می‌شود، اما می‌تواند کدهای نادرستی را ایجاد کند. مایکروسافت، آمازون، گیت‌هاب و انویدیا همگی نسخه‌های کپی‌لوتی را برای توسعه‌دهندگان منتشر کرده‌اند.

شروع کار با چت‌بات‌ها

برای اینکه بدانید چت‌بات‌ها چگونه کار می‌کنند، درابتدا باید اصول هوش‌مصنوعی به‌ویژه یادگیری ماشین (ML) و مدل‌های بزرگ (LLM) را بدانید. یادگیری ماشین، شاخه‌ای از علوم کامپیوتر است که به تحقیق و توسعه درجهت آموزش کامپیوترها برای یادگیری اختصاص دارد.

یک LLM اساساً یک برنامه پردازش زبان طبیعی (NLP) است که از مجموعه عظیمی از داده‌ها و شبکه‌های عصبی (NN) برای تولید متن استفاده می‌کند. LLMها با آموزش کدهای هوش‌مصنوعی بر روی مدل‌های داده بزرگ کار می‌کنند، که با گذشت زمان از آنها “یاد می‌گیرند”. درنهایت براساس دقت داده‌های ورودی، به یک متخصص در یک زمینه خاص تبدیل می‌شوند. هرچه داده‌های ورودی بیشتر (و دقیق‌تر) باشد، چت‌باتی که از آن مدل استفاده می‌کند، دقیق‌تر و صحیح‌تر خواهد بود. LLMها درحالی‌که برروی مدل‌های داده آموزش می‌بینند، به‌یادگیری عمیق نیز متکی هستند.

وقتی از یک ربات چت سوالی می‌پرسید، LLM برای ارائه مناسب‌ترین پاسخ، براساس یادگیری و دانش ذخیره‌شده‌اش از همه موضوعات مرتبط با سوال شما جستجو می‌کند. اساساً چت‌بات‌ها دانش از پیش محاسبه‌شده‌ای از یک موضوع دارند و با داشتن یک LLM و زمان کافی برای یادگیری، می‌توانند پاسخ‌های صحیح را بسیار سریع‌تر از بسیاری از مردم ارائه دهند.

در ژانویه 2023، متا مدل هوش‌مصنوعی LLM خود را به‌نام LLaMA منتشر کرد. یک‌ماه‌بعد، گوگل چت‌ربات هوش‌مصنوعی خود را با نام Bard معرفی کرد که بر‌اساس LLM خود، LaMDA نام‌گذاری شد. مابقی چت‌بات‌ها از آن تاریخ به‌بعد ایجاد شدند.

هوش‌مصنوعی مولد

اخیراً، برخی از LLMها یاد گرفته‌اند که چگونه داده‌های غیرمتنی مانند گرافیک، موسیقی و حتی کتاب‌های کامل را تولید کنند. شرکت‌ها به هوش‌مصنوعی مولد علاقه‌مند هستند تا چیزهایی مانند گرافیک شرکتی، آرم‌ها، عناوین و حتی صحنه‌های فیلم دیجیتالی را ایجاد کنند تا نیروی کار خودرا کاهش دهند. یکی از عارضه‌های جانبی هوش‌مصنوعی مولد، نگران‌شدن کارگران به‌خاطر از دست دادن شغلشان به‌دلیل اتوماسیون ناشی از نرم‌افزار هوش‌مصنوعی است.

دستیاران چت‌بات

اولین چت‌ربات تجاری در دسترس کاربر، BeBot است که برای اولین‌بار درسال 2019 توسط Bespoke Japan عرضه شد. BeBot که به‌عنوان یک برنامه iOS و Android منتشر شده است، می‌داند چگونه شما را به هر نقطه در اطراف ایستگاه هزارتومانند هدایت کند، به‌شما کمک می‌کند چمدان‌های خود را پیدا کنید، ساعت قطار را یادآوری کند و… . حتی می‌تواند به شما بگوید که برای سریع‌ترین قطار به هر مقصدی در شهر براساس مدت زمان سفر به کدام سکوهای قطار بروید. همه این اتفاقات تنها درچند ثانیه اتفاق می‌افتد.

برنامه چت MLC

برنامه چت MLC

پروژه تالیف یادگیری ماشین (MLC) زاییده فکر سیوان فنگ، محقق یادگیری عمیق بنیاد آپاچی، هونگی جین و همچنین سایر افراد مستقر در سیاتل و شانگهای چین است. ایده پشت MLC این‌است که LLMها و ربات‌های گفتگوی از پیش کامپایل شده را در دستگاه‌های مصرف‌کننده و مرورگرهای وب مستقر کنند. MLC از قدرت واحدهای پردازش‌گرافیکی مصرف‌کننده (GPU) برای تسریع نتایج و جستجوهای هوش‌مصنوعی استفاده می‌کند تا هوش‌مصنوعی را در دسترس اکثر دستگاه‌های محاسباتی مصرف‌کننده مدرن قرار دهد.

یکی دیگر از پروژه‌های MLC – Web LLM همان عملکرد را برای مرورگرهای وب به‌ارمغان می‌آورد و به نوبه خود بر روی پروژه دیگری (WebGPU) استوار است. فقط ماشین‌هایی با پردازنده‌های گرافیکی خاص در Web LLM پشتیبانی می‌شوند، زیرا به چارچوب‌های کدی متکی است که GPUها از آن‌ پشتیبانی می‌کنند.

اکثر دستیاران هوش‌مصنوعی به مدل مشتری-سرور با سرورهایی که بیشتر کارهای سنگین هوش‌مصنوعی را انجام می‌دهند متکی هستند، اما MLC ،LLMها را در کد محلی که مستقیماً روی دستگاه کاربر اجرا می‌شود، می‌سازد و نیاز به سرورهای LLM را از بین می‌برد.

راه‌اندازی MLC

برای اجرای MLC بر روی دستگاه شما، باید حداقل شرایط ذکر شده در صفحات پروژه و GitHub را برآورده کند. برای اجرای آن روی آیفون، به آیفون 14 پرو مکس، آیفون 14 پرو یا آیفون 12 پرو با حداقل 6 گیگابایت رم نیاز دارید. همچنین برای نصب برنامه باید اپلیکیشن TestFlight اپل را نصب کنید، اما نصب به 9000 کاربر اول محدود می‌شود.

کارمندان اپل اینسایدر می‌گویند ما سعی کردیم MLC را روی آیپد پایه 2021 با فضای ذخیره‌سازی 64 گیگابایتی اجرا کنیم، اما راه‌اندازی نشد. البته نتایج شما ممکن است در iPad Pro متفاوت باشد. همچنین می‌توانید MLC را از منابع بسازید و با دنبال‌کردن دستورالعمل‌های صفحه MLC-LLM GitHub مستقیماً آن را روی تلفن خود اجرا کنید. برای بازیابی منابع به سیستم کنترل کد منبع git نیاز دارید که ازقبل روی مک نصب شده باشد.

برای انجام این‌کار، یک پوشه جدید در Finder مک خود ایجاد کنید، از دستور cd UNIX برای پیمایش به آن در ترمینال استفاده کنید، سپس دستور git clone را در ترمینال همانطور که در صفحه MLC-LLM GitHub فهرست شده است، اجرا کنید:

https://github.com/mlc-ai/mlc-llm.git و دکمه Return را فشار دهید. git تمام منابع MLC را در پوشه‌ای که ایجاد کرده‌اید دانلود می‌کند.

نصب پیش‌نیازها روی مک

نصب پیش‌نیازها روی مک

برای رایانه‌های مک و لینوکس، MLC از یک رابط خط فرمان در ترمینال اجرا می‌شود. برای استفاده از آن ابتدا باید چند پیش نیاز را نصب کنید:

  1. مدیر بسته Conda یا Miniconda
  2. هومبرو (Homebrew)
  3. کتابخانه گرافیکی Vulkan (فقط لینوکس یا ویندوز)
  4. پشتیبانی از فایل‌های بزرگ git (LFS)

برای کاربرانی که از GPU انویدیا استفاده می‌کنند، دستورالعمل‌های MLC به‌طور خاص بیان می‌کند که باید درایور Vulkan را به‌عنوان درایور پیش‌فرض به‌صورت دستی نصب کنند. کتابخانه گرافیکی، دیگر برای پردازنده‌های گرافیکی NVIDIA – CUDA – کار نخواهد کرد.

برای کاربران مک، می‌توانید Miniconda را با استفاده از Homebrew Package Manager نصب کنید. توجه داشته باشید که Miniconda با miniforge در فرمول Homebrew Conda، در تضاد است. بنابراین اگر miniforge را قبلاً از طریق Homebrew نصب کرده‌اید، ابتدا باید آن را حذف کنید. به دنبال دستورالعمل‌های صفحه MLC/LLM، مراحل نصب باقی‌مانده تقریباً عبارتند از:

  1. یک محیط جدید Conda ایجاد کنید.
  2. git و git LFS را نصب کنید.
  3. برنامه چت خط فرمان را از Conda نصب کنید.
  4. یک پوشه محلی جدید ایجاد کنید، وزن مدل LLM را دانلود کنید و یک متغیر LOCAL_ID تنظیم کنید.
  5. کتابخانه‌های MLC را از GitHub دانلود کنید.

همه اینها با جزئیات در صفحه دستورالعمل ذکر شده است، بنابراین ما در اینجا به همه جنبه‌های راه‌اندازی نمی‌پردازیم. ممکن است کمی سخت به‌نظر برسد امااما اگر مهارت‌های پایه macOS Terminal را دارید، تنها چند مرحله ساده خواهد بود. مرحله LOCAL_ID فقط آن متغیر را طوری تنظیم می‌کند که به‌یکی از سه وزن مدلی که دانلود کرده‌اید، اشاره کند.

وزن‌های مدل از وب‌سایت انجمن HuggingFace، که نوعی GitHub برای هوش‌مصنوعی است، دانلود می‌شوند. هنگامی که همه چیز در ترمینال نصب شد، می توانید با استفاده از mlc_chat_cli در ترمینال دسترسی پیدا کنید.

استفاده از MLC در مرورگرهای وب

MLC همچنین دارای یک نسخه وب، Web LLM است. نوع Web LLM فقط روی مک‌های Apple Silicon اجرا می‌شود. روی مک‌های اینتل اجرا نمی‌شود و با خطا مواجه خواهید شد. یک منوی بازشو در بالای پنجره چت‌وب MLC وجود دارد که از آن می‌توانید وزن مدل دانلود شده مورد نظر خود را انتخاب کنید:

استفاده از MLC در مرورگرهای وب
یکی از وزن‌های مدل را انتخاب کنید.

برای استفاده از Web LLM به نسخه 113 و جدیدتر گوگل کروم نیاز دارید. نسخه‌های قدیمی‌تر قادر به‌اجرا نیستند. با رفتن به قسمت درباره گوگل کروم در مرورگر کروم، می‌توانید شماره نسخه Chrome خود را از منوی Chrome در نسخه Mac بررسی کنید. اگر به‌روزرسانی در دسترس است، روی دکمه به‌روزرسانی کلیک کنید تا به آخرین نسخه به‌روزرسانی شود. احتمالاً مجبور می‌شوید کروم را پس از به‌روزرسانی مجدد راه‌اندازی کنید.

توجه داشته باشید که صفحه MLC Web LLM توصیه می‌کند Chrome را از ترمینال Mac با استفاده از این دستور راه‌اندازی کنید:

/Applications/Google\ Chrome.app/Contents/MacOS/Google\ Chrome — enable-dawn-features=allow_unsafe_apis,disable_robustness

allow_unsafe_apis’ و disable_robustness’ دو پرچم راه‌اندازی کروم هستند که به آن اجازه می‌دهند از ویژگی‌های آزمایشی استفاده کند، که ممکن است ناپایدار باشند یا نباشند. هنگامی که همه چیز تنظیم شد، فقط یک سوال را در قسمت Enter your message در پایین صفحه چت صفحه وب Web LLM تایپ کنید و روی دکمه ارسال کلیک کنید.

نظرشما درباره این چت‌بات محلی مک چیست؟

نوشته های مشابه

2 دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *