۵ پیش بینی در مورد هوش مصنوعی در سال ۲۰۲۲

۵ پیش بینی در مورد هوش مصنوعی در سال ۲۰۲۲

سال ۲۰۲۱، سالی پر از پیشرفت های اعجاب آور در زمینه هوش مصنوعی بود.

همزمان با پیشرفت هوش مصنوعی، نقطه توجه و تمرکز بسیاری از محققان، بر روی اخلاقیات در هوش مصنوعی است.

ما امروزه درک بیشتری از خطرات مدل های زبانی که کمپانی ها (به جای بزرگ تر کردن آن ها) به دنبال  هوشمند تر کردن و کاربردی تر کردن آن ها در زندگی روزمره هستند داریم که در میان این مدل ها، مدل سیستم های چندمنظوره ای مانند MUM Google ، OpenAI ، رایج تر هستند.

هوش مصنوعی دنیای واقعی ، در حال پیشرفت است. در مجموع، هوش مصنوعی سرعت پیشرفت بسیار رو به جلویی در دهه های اخیر داشته که ما هم شاهد آن بوده ایم.

پیشرفت های چشم گیر هوش مصنوعی در سال ۲۰۲۲ نیز ادامه خواهد داشت. جامعه هوش مصنوعی، پیشرفت های امیدوارکننده و چشم گیری را برای بشریت به ارمغان خواهد آورد که برخی از آن ها تا حدودی قابل پیش بینی هستند.

در ادامه مقاله، ۵ نمونه از تاثیرگذارترین تحولات و پیشرفت ها در حوزه هوش مصنوعی را برایتان خواهیم آورد که می توانند در سال ۲۰۲۲ و یا سال های بعد از آن اتفاق بیفتند ( سایر نقاط عطف غیر قابل پیش بینی تر، مطمئنا اتفاق خواهد افتاد. اما صحبت کردن درباره تحولاتی که در ادامه مقاله به شما خواهم گفت، به این منظور است که هر لحظه باید منتظر تحولات غافلگیرکننده ای در این زمینه باشیم).

۱- تحقیقات در مورد روش های جدید ساختن مدل های زبانی

مدل های زبانی

روند “بزرگ تر بودن مساوی بهتر بودن است” در سال ۲۰۲۲ از بین خواهد رفت.

مدل های زبان، در حال حاضر جزو موضوعاتی است که در هوش مصنوعی وجود دارد. فناوری بینایی رایانه، در  سال های اولیه دهه گذشته، به وجود آمد؛ اما استفاده کاربردی از آن، در سال ۲۰۱۷ به بعد رایج تر شد. همچنین زبان، بسیار مورد توجه محققان قرار گرفت و تبدیل به منبع مهمی برای سود ارگان ها و کمپانی های فعال در زمینه هوش مصنوعی شد. شما به سختی می توانید کمپانی ها و یا استارت آپ هایی را پیدا کنید که زبان هوش مصنوعی در آن نقشی نداشته باشد.

DeepMind ، از آن دسته کمپانی های درجه اول در جهان است که توانسته پیشرفت های باورنکردنی در زمینه هوش مصنوعی داشته باشد.

تنها چند هفته پیش، کمپانی DeepMind سه مقاله در مورد مدل های زبانی منتشر کرد. این خبر با سرافکندگی منتشر شد. “ما نوعی دامنه تغییرات در نسبت مدل های زبانی توسعه داده ایم که در طی این چهار سال اخیر، رسانه های بسیاری  به آن پرداختند. با این حال، علم در عنوان و سر تیتر رسانه ها اتفاق نمی افتد، بلکه در تجربه و عمل اتفاق می افتد و این کمپانی هنوز به نتیجه ای نرسیده است”.

اولین مقاله ای که منتشر شد، در مورد ویژگی های Gopher بود. یک شبکه عصبی ۲۸۰ میلیون پارامتری که عملکرد جالبی را از خود به نمایش گذاشت و از GPT3،J1-Jumbo ،MT-NLG ( سه مدل برتر قبلی که داده های عملکردی از آن ها داریم) ، در ۱۰۰مورد از ۱۲۴ مورد اجرا پیشی گرفته و عملکرد خوبی از خود نشان داده است.

Gopher ، یک مدل زبانی بزرگ متراکم ( LLM ) است که به همان شیوه مدل های زبانی پیشین ساخته اند.

این مدل زبانی، علی رغم عملکرد خوبی که دارد، اما هیچ گونه خلاقیتی در آن به کارگرفته نشده و به همان شیوه آموزش داده شده. هر چند نسبتا عملکرد بهتر و قابلیت ریسک پذیری بالاتری دارد.

سومین مقاله در مورد ” تبدیل کننده پیشرفته بازیابی ( RETRO ) است. یک مدل زبانی که اندازه آن ۷ میلیارد پارامتر است و قابلیت رقابت با مدل های زبانی GPT-3 و  J1-Jumbo ( که ۲۵ برابرابر بزرگتر هستند) را دارد. این مدل با ۱۰ برابر قدرت محاسباتی کم تر  از GPT-3 آموزش داده شده و از مکانیک بازیابی استفاده می کند که این امکان را می دهد بلادرنگ و بدون کوچک ترین وقفه ای به پایگاه داده های کلان دسترسی پیدا کند. در این مدل زبانی و برخلاف مدل های پیشین خود، نیازی به نگه داری تمام اطلاعات در حافظه نیست.

مدل زبانی RETRO ، شباهت بیشتری به عملکردهای انسانی دارد. ما نمی توانیم تمام اطلاعات را در ذهنمان جای دهیم. ما برای یافتن اطلاعات جدید، کتاب می خوانیم و سایت های مختلف را جستجو می کنیم. کمپانی DeepMind ، اطمینان می دهد که از تولید مدل های زبانی بزرگ فاصله خواهد گرفت.

دخالت انسان ها در توسعه هوش مصنوعی هنوز بیش از حد زیاد است که موجب گران تر شدن هزینه های توسعه شده و به همین دلیل به جز چند شرکت میلیادری، کمپانی های دیگری از این فناوری استفاده نمی کنند.

اگر نرخ رشد در سال های آتی نیز ثابت بماند، سخت افزار هوش مصنوعی، دوره زمانی سختی را در ارتباط با آموزش مدل های زبانی به سرعت در حال تغییر خواهد داشت و نیازمند استفاده از  فناوری جدید RETRO خواهد بود.

روش دیگری که می تواند نتایج امیدوارکننده ای از خود برجای گذارد، استفاده از مدل های زبانی کم تراکم است. پراکندگی شامل استفاده از تنها کسری از پارامترهای مدل برای انجام محاسبات است. بخش های مختلف یا تخصصی، به صورت مشروط فعال می شوند.

این روند، در تضاد با مدل های زبانی متراکمی همچون GPT-3 و Gopher است که در آن، تمام پارامتر ها به پردازش تمام داده های ورودی کمک می کنند.

سوییچ ترانسفورمر ( ۱٫۷T )، Wu Dao 2.0 ( 1.75T) یا M6 (10T) ، نمونه هایی از مدل های زبانی کم تراکم هستند.

ما همچنین شاهد این موضوع خواهیم بود که تراشه های هوش مصنوعی، از مزیت های انواع مدل های زبانی کم تراکم استفاده می کنند تا با پیشرفت های مدل زبانی همگام شوند. استارت آپ سخت افزاری هوش مصنوعی Tenstorrent ، نمونه ای از این مورد است.

آن ها تراشه های هوشمندتری طراحی می کنند و به جای ساختن مدل های بزرگتر و گران تر، قدرت محاسباتی آنها را افزایش می دهند.

در حال حاضر ۴ سال از روند ترند شدن ساخت مدل های زبانی بزرگ تر می گذرد. ممکن است دیگر هرگز مدل های ۱۰۰ تریلیون پارامتری را نبینیم. بزرگتر بودن، همیشه به معنای بهتر بودن نیست و هم کمپانی های سخت افزاری و هم کمپانی های نرم افرازی، به این موضوع توجه ویژه ای دارند. شیوه های جدید طراحی و ساخت مدل های زبانی هوشمندتر، در سال ۲۰۲۲ واضح تر خواهد بود.

۲- کمپانی OpenAI ، در سال ۲۰۲۲، مدل زبانی GPT-4 را ارائه خواهد داد که ما را غافلگیر خواهد کرد

سم آلتمن مدیر عامل OpenAI
سم آلتمن مدیر عامل OpenAI

در چند ماه پیش، مقاله ای منتشر شده مبنی بر این که مدل زبانی GPT-4، احتمالا اندازه ای بالغ بر  ۱۰۰ تریلیون پارامتر خواهد داشت؛ یعنی ۵۰۰ برابر بزرگتر از GPT-3. اما این پیش بینی به نظر اشتباه می آید.

با توجه به آن چه می خواهیم در مورد روش های جدید در ساخت مدل های زبانی بگوییم، OpenAi می خواهد به ساخت مدل های زبانی بزرگتر خاتمه داده و مدل های زبانی هوشمند تر بسازد. مدل زبانی GPT_3 اندازه ای صد برابر  GPT-2 داشت. اما GPT-4، همان اندازه GPT-3 را خواهد داشت؛ منتها با این تفاوت که شیوه عملکردی آن متفاوت تر خواهد بود.

نویسنده در موقع نوشتن مقاله فوق الذکر، مانند بیشتر مردم این طور فکر می کرده که  OpenAI ، در ساخت مدل زبانی GPT-4 نیز همان روال مدل های زبانی سابق نظیر GPT ، GPT-2 ،و GPT-3 را در پیش خواهد گرفت.

اندرو فِلدمن، مدیرعامل Cerebars Systems ، در تبلیغ آخرین تراشه هوش مصنوعی ساخت این کمپانی، یعنی WSE-2 ، گفت که شرکت OpenAI ، برای رونمایی از ورژن های جدیدتر مدل زبانی در خانواده GPT ( یک مدل ۱۰۰ تریلیون پارامتری)، از تراشه هایشان استفاده کردند.

اما سَم آلتمن، مدیر عامل شرکت OpenAi ، چنین شایعاتی را رد کرد. در یک پرسش و پاسخ خصوصی، مدیر عامل این شرکت گفت که GPT-4، صد میلیارد پارامتری نخواهد بود و تنها یک مدل متنی ساده است.

او همچنین گفت که این مدل زبانی، ویژگی های منحصر به فردی را با خود خواهد داشت که در GPT-3 نبوده. اما مشخص نکرد که چه خصوصیت جدیدی را به مدل زبانی خود افزوده است.

محققان کمپانی OpenAI ، ظاهرا بر روی ارتقای کارایی و  قدرت این مدل زبانی کار می کنند و در عین حال، اندازه را ثابت نگه می دارند( همان طور که کمپانی DeepMind ، در مورد RETRO انجام داد) و به طور کامل از فرضیه مقیاس بندی فاصله می گیرند).

تکنیک های بازیابی، پردازش شرطی و ساخت ترانسفورمر های کارآمدتر، برخی از رویکرد های جایگزین شناخته شده برای مدل های بزرگ تر هستند. اما چیزهای دیگری نیز وجود دارد که  کمپانی OpenAI می تواند روی آن ها آزمایش کند. مطمئنا این کمپانی به زودی و در سال ۲۰۲۲، ما را غافلگیرتر خواهد ساخت.

۳- تسلا، ربات انسان نمای خودکار نخواهد ساخت

ربات انسان نما تسلا

ایلان ماسک، یک شومَن است و تسلا، گل سر سبد آن است. ما طرفداران او هستیم و  این جهان نیز زمین بازی او است.

در سال ۲۰۲۱، روز هوش مصنوعی تسلا، ایلان ماسک به سبک عجیب و غریب خود قول داد که تسلا،” زمانی در سال آینده” قول خواهد داد که یک نمونه اولیه از یک ربات انسان نمای خودکار ، ارایه خواهد داد. آن ها قصد دارند فناوری خودران ( که هنوز ناقص است ) را به یک ربات انسان نما منتقل کنند.

ایلان ماسک با خود این طور فکر می کند که تسلا برای کار بر روی این پروژه بسیار مناسب است؛ زیرا تمرکز زیادی بر روی خودکار بودن، ابر رایانه ها و هوش مصنوعی در دنیای واقعی دارد.

هدف اصلی از ساخت ربات انسان نما، انجام کارهای خطرناک، تکراری و خسته کننده روزانه است. ایلان ماسک گفت که مردم به زودی قادر خواهند بود تا با استفاده از زبان طبیعی، به ربات ها فرمان دهند. مثلا شما به ربات خود می توانید بگویید “آن پیچ را بردار و با آچار آن را به ماشین وصل کن”، یا  می توانیم به ربات خود بگوییم” به مغازه خواروبار فروشی برو و چیزهایی که من می خواهم را برایم بخر”.

با این حال، چیزی که ایلان ماسک متوجه آن نمی شود و یا از آن آگاه است و از ربات انسان نما به عنوان شیرین کاری تبلیغاتی دیگر استفاده می کند، این است که ساخت یک ربات انسان نما از ساختن خودروی خودران ( شاهکاری که تسلا هنوز فاصله زیادی با آن دارد)، بسیار سخت تر است.

ما انسان ها از حس های چندگانه برخوردار هستیم؛ زیرا در یک دنیای چند وجهی تکامل یافته ایم. ماشین های خودران، فقط حس بینایی دارند و  این ویژگی خودرو های خودران، آن ها را از درک صدا، طعم، بو، بافت، فشار و دما منع می کند.

ما انسان ها کانال های مختلف ادراکی را در یک بازنمایی واحد از واقعیت ها ادغام می کنیم و برای پیمایش در جهان هستی از آن ها استفاده می کنیم.

ربات انسان نما، به حسگرهای لمسی، توانایی های حس عمقی و بازنمایی درونی دقیقی نیاز دارد که هیچ کدام از ان ها در فناوری خودروهای خودران وجود ندارد و فراتر از همه این چیزهای گفته شده، روح انسان نیاز به سیستمی برای انتخاب و فیلتر  اطلاعات ادراکی مهم دارد.

زیرا برای کار در حال انجام مفید است ؛ زیرا تهدیدکننده حیات است و یا به هر دلیل دیگری که در این بازه قرار می گیرد. مکانیسم های توجه، در مدل های زبانی آسان است. اما وقتی نوبت به ترکیب و انتخاب ادراکات و تصمیم گیری در مورد آن ها می رسد، فناوری از راه دور، به سطح انسان نزدیک نیست.

زمانی که انسان میفهمد چه ادراکات حسی مهمی درونش نهفته است، باید اطلاعات را پردازش کند، اقدامات بعدی را برنامه ریزی کند، تصمیم بگیرد کدام یک بدیهی است و کدام نه و با در نظر گرفتن ماهیت همیشه در حال تغییر جهان و خودش عمل کند. یک خودروی خودران، تنها دو هدف دارد: از A  به B  برود و قوانین راهنمایی و رانندگی را رعایت کند.

یک ربات خودکار همچنین نیاز به درک جهان اطراف و عکس العمل های ما دارد. اگر در آسمان، ابر باشد، انسان باید احتمال وقوع بارش احتمالی را بتواند پیش بینی کند. موقعی که باران می بارد، ممکن است زمین مرطوب شود. اگر  سطح زمین خیس باشد، انسان ممکن است سر بخورد و بیفتد. این زنجیره استدلال، برای ما آشکار است؛ اما برای هوش مصنوعی، چنین چیزی بدیهی نیست.

ادراک چند حسی، توجه، برنامه ریزی،تصمیم گیری، عقل سلیم و استدلال علّی، از زمان تصور آن در سال ۱۹۵۰ برای هوش مصنوعی،دور از دسترس بوده است.

ایلان ماسک قرار نیست این کار را در یک سال ممکن کند.

۴- مناقشات ادامه دار بر علیه پیش داوری در هوش مصنوعی های زبانی

پیش داوری هوش مصنوعی زبانی

اخلاق هوش مصنوعی در چند سال اخیر،به یک موضوع داغ تبدیل شده است. در سال ۲۰۲۲، شاهد خواهیم بود که شرکت ها در مورد آن با وجدان تر عمل می کنند. آن ها حتی تلاش هایی را برای کسب سود بیشتر انجام می دهند. اگرچه احتمالا به این دلیل که از نظر اقتصادی ارزش دارد که بر  این موضوع پرداخته شود.

با بزرگتر شدن و قدرتمند تر شدن مدل های زبانی، احتمال آسیب رسانی آن ها نیز رو به افزایش است. شرکت ها تکنیک هایی را برای کاهش پیش داوری در مدل ناشی از مجموعه داده ها، به کار گرفته اند. برخی مواردی مانند مدیریت و فیلتر کردن داده ها، قبل از آموزش اعمال می شوند. در حالی که برخی دیگر مانند تنظیم دقیق مدل ها برای بهبود رفتار آن ها، نظارت بر انتشار برنامه ها یا تعریف و اجرای دستورالعمل های مورد استفاده دقیق بهتر، در پایین دست اجرا می شوند.

اما با وجود تلاش ها، هیچ الگوی زبانی از این نقص ها مصون نیست. کارشناسان اخلاق بار ها گزارش کرده اند که شرکت ها به اندازه کافی برای کاهش این رفتارهای مخاطره آمیز، کاری انجام نمی دهند. آن ها انتقاد می کنند که این شرکت ها،سود را به عنوان هدف بهینه سازی در نظر می گیرند .

کارشناسان این حوزه همچنین اذعان دارند که مشکلات مدل های زبانی بزرگ، درونی است و به سختی قابل برطرف کردن است. به همین دلیل است که امیلی اِم بِندِر  و تیمیت گِبرو، به محققان توصیه می کنند  موارد دیگری را فراتر از ” مدل های زبانی بزرگتر”  را نیز در نظر بگیرند.

مقاله دوم DeepMind ، یک طبقه بندی دقیق از خطرات اخلاقی و اجتماعی آسیب ناشی از مدل های زبانی را شامل می شود. آن ها ساختار ریسک ها را ترسیم می کنند ، منشا آن ها تجزیه تحلیل می کنند، رویکردهای کاهش بالقوه را تعریف می کنند و برای آینده کار بر روی مدل های زبانی، توصیه هایی را ارائه می دهند. آن ها فهمیدند که کارهای زیادی برای کاهش خطرات آسیب وجود دارد؛ تا جایی که استفاده آشکار از این مدل ها از هر نوع آن برای افراد ، به اندازه کافی ایمن باشد.

توسعه مدل های زبانی بزرگ تر،به این زودی ها متوقف نخواهد شد. پیش داوری و رفتارهای خطرناک، به طور ۱۰۰ درصد از سوی این مدل ها حذف نخواهد شد. در سال های آینده، شاهد دو مسیر خواهیم بود: آن هایی که هدف اصلی شان توسعه فناوری است و آن هایی که هدف اصلی شان، تبدیل جهان به مکانی بهتر برای زندگی است.

این رفتارهای مضر هرگز به طور کامل از روی سستم های هوش مصنوعی حذف نخواهد شد. اما امید است که جامعه هوش مصنوعی، در نهایت متوجه شود که LLM ها قدرت محدودی دارند و  هدف پیش رو، بزرگتر کردن این مدل های زبانی نیست.

۵- خودروهای خودران هنوز به طور کامل خودران نخواهند شد

رانندگی با خودرو های خودران تسلا

هیچ کمپانی در دنیا هنوز خودروی خودران نساخته است.

تسلا، مفاهیم ” خودرانی کامل ” و ” خلبان خودکار ” را مطرح کرد تا مشتریان را به این فکر وادارد که می توانند سوار خودرو های خودران خودشان بشوند که این دست نیست. در سال ۲۰۲۰، مقامات آلمانی علیه این رفتار واکنش نشان دادند و تسلا را از استفاده از این نوع زبان گمراه کننده برای اهداف بازاریابی، منع کردند.

خودروهای خودران با واقعیت فاصله بسیار زیادی دارند. خلبان خودکار تسلا، به خودرو ها کمک می کند تا سناریو های رایج را هدایت کنند، اما در حل مواردی که در آن انسان ها بهتر عمل می کنند، شکست می خورد و منجر به وقوع تصادفات می شود.

روشن و واضح است که خودرانی کامل به زودی محقق نخواهد شد. اما همه با این نظریه موافق نیستند.

ایلان ماسک از سال ۲۰۱۵ قول خودروهای تمام خودران را داده است. او در سخنرانی افتتاحیه Nvidia GTC ، این طور گفت که” فکر نمی کنم نگرانی و دغدغه ای در مورد خودروهای خودران وجود داشته باشد، زیرا در این فناوری ، از هوش مصنوعی استفاده شده و فکر نمی کنم که چیز خیلی سختی باشد. من تقریبا مانند یک مشکل حل شده به این موضوع نگاه می کنم”. او سپس قول داد که هر دو سال یکبار، بر ظرفیت ناوگان خودروهای خودران خود بیفزاید.

او در سال ۲۰۱۶ گمان کرد که این فناوری برای سال ۲۰۱۷ آماده می شود. او گفت” من حس بسیار خوبی در مورد رسیدن به هدف ارائه خودروهای خودران دارم. این خودرو در سال ۲۰۱۷ ، از لس آنجلس تا نیویورک را خواهد پیمود”. در سال ۲۰۱۸ ” فکر می کنم در سال آینده، به فناوری خودروهای تمام خودران دست پیدا کنیم”. او همچنین در سال ۲۰۲۰ گفت که فناوری خودروهای تمام خودران، تا پایان امسال دست یافتنی است.

او هر بار اشتباه فکر می کرد.

در نهایت او در توییتی در سال ۲۰۲۱ ، به سختی این چالش اذعان کرد.

سایر کمپانی ها نیز بر روی ماشین های خودران دستاورد هایی را ارائه کرده اند. این کمپانی ها به اندازه تسلا محبوب نیستند و مراحل آن را دنبال نمی کنند. دو کمپانی Waymo و Cruise ، خودرو های کم تری در جاده ها دارند. اما در ازای آن، رویکردی ایمن تر را در تولیدات خود در نظر می گیرند.

اکثر متخصصان امر با این موضوع اتفاق نظر دارند که رانندگی خودران تنها از طریق حس بینایی امکان پذیر نخواهد بود و برای وارد شدن به مراحل بعدی، استفاده از سایر فناوری های ترسیم تکنولوژی نیز بسیار ضرورت دارند. علی رغم تلاش زیاد کمپانی ها برای ارائه فناوری خودروهای خودران، این شرکت ها هنوز هم از شرکت تسلا بسیار عقب تر هستند.

به نظر می رسد که تسلا به دو دلیل، از سایر رقبایش جلوتر است: اول این که آن ها در فناوری خودروهای خودران خود، صرفا از رویکرد بینایی و دید استفاده می کنند. یعنی آن ها به شبکه های عصبی دستور می دهند که بهتر است چه عملکردی از خود نشان دهند. حجم زیادی از داده های ضبط شده از ماشین را با دوربین را پردازش می کنند.

البته علی رغم چیزهایی که ایلان ماسک می گوید، هنوز مشخص نیست که آیا مشکلات موجود در فناوری خودروهای خودران از این طریق حل و فصل می شود یا نه.

دومین دلیل این که شرکت تسلا در فروش خودروهای خودران، بهتر از ساخت آن ها عمل می کند. همه ایلان ماسک و تسلا را دوست ندارند. اما آن هایی که این کمپانی را دوست دارند، از طرفداران سرسخت آن به شمار می آیند. سیل ماشین های تسلا در جاده ها سراسر دنیا در جریان است.

به دلیل آماده نبودن فناوری و یا به دلیل این که این فناوری هنوز ناقص است تسلا نمی تواند تا یک سال دیگر هم انتظارات را برآورده کند. شرکت های دیگر نیز خودروی خودران نمی سازند. زیرا وجود ایمنی در فناوری خودروهای خودران، بیان کننده پیشرفت های کند در زمینه ایمنی این خودروهاست. اگرچه در این مورد، ارزش آن را دارد.

تسلا احساس می کند که در زمینه فناوری خودروهای خودران بسیار پیشرو است. اما این طور نیست. ایلان ماسک استاد لغزش از وعده های انجام نشده است. اتومبیل خودران در آینده، فراتر از  آن چیزی هستند که مردم حتی تصورش را هم نمی توانند بکنند.

این ۵ مورد اصلی ترین پیش بینی های حوزه هوش مصنوعی برای سال ۲۰۲۲ بودند. شما چه فکری می کنید؟ با کدامیک از موارد گفته شده موافق و با کدامیک مخالفید؟ 

بیشتر بخوانید :

منبع Towards Data Science

درباره‌ی فریبا یزدیان

Faribayazdian1372@gmail.com

همچنین ببینید

چالش های بینایی رایانه ای خودرو های خودران

۷ چالش بینایی رایانه ای در خودروهای خودران

با رشد فوق العاده قابلیت های بینایی کامپیوتری ، راهکار های جدید بسیاری برای توسعه …

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.