هوش مصنوعی می‌تواند رفتار انسان را دستکاری کند

هوش مصنوعی می‌تواند رفتار انسان را دستکاری کند

هوش مصنوعی (AI) در حال یادگیری بیشتر در مورد نحوه کار با انسان و همچنین کار بر روى انسان است. یک مطالعه جدید نشان داده است که چگونه هوش مصنوعی می‌تواند آسیب پذیری‌ها را در عادات و رفتارهای انسان شناسایی کند و از آنها برای تأثیرگذاری در تصمیم گیری انسان استفاده کند.

ممکن است گفتن اینکه هوش مصنوعی همه جنبه‌های شیوه زندگی و کار ما را دگرگون می‌کند، کلیشه‌اى به نظر برسد، اما واقعیت دارد. انواع مختلف هوش مصنوعی در زمینه‌های متنوعی از جمله تولید واکسن، مدیریت محیط زیست و اداره محل کار، فعالیت مى‌کنند و با اینکه هوش مصنوعی از هوش و احساسات انسانی برخوردار نیست، توانایی‌های آن بسیار قدرتمند و به سرعت در حال رشد است.

در مورد تصاحب قدرت توسط ماشین‌ها در حال حاضر جاى نگرانى وجود ندارد، اما این کشف اخیر به قدرت هوش مصنوعی اشاره می‌کند و لزوم نظارت مناسب برای جلوگیری از سو استفاده تأکید می‌کند.


هوش مصنوعى چگونه می‌تواند یاد بگیرد که بر رفتار انسان تأثیر بگذارد

تیمی از محققان CSIRO's Data61، بازوی اطلاعاتی و دیجیتالی آژانس علمی ملی استرالیا، با استفاده از نوعی سیستم هوش مصنوعی به نام شبکه عصبی بازگشتى (RNN) و یادگیرى تقویتى عمیق، یک روش سیستماتیک برای یافتن و بهره‌برداری از آسیب‌پذیری‌ها در روش‌های انتخاب افراد ابداع کردند. آنها برای آزمایش مدل خود سه آزمایش را انجام دادند که در آن شرکت‌کنندگان انسانی در مقابل یک کامپیوتر بازی می‌کردند.

در اولین آزمایش شرکت‌کنندگان برای بدست آوردن یک پول جعلی بر روى جعبه‌هاى قرمز یا آبى کلیک مى‌کردند و هوش مصنوعی الگوهای انتخاب شرکت‌کننده را یاد مى‌گرفت و آنها را به سمت یک انتخاب خاص راهنمایی مى‌کرد. هوش مصنوعی در حدود 70 درصد از مواقع موفق بود.

در آزمایش دوم شرکت‌کنندگان موظف بودند یک صفحه را تماشا کنند و وقتی نماد خاصی (مانند یک مثلث نارنجی) به آنها نشان داده مى‌شود، یک دکمه را فشار دهند و وقتی نماد دیگرى (مثلا یک دایره آبی) به آنها نشان داده شد، آن دکمه را فشار ندهند. در اینجا، هوش مصنوعی شروع به چیدن ترتیب نمادها کرد تا شرکت کنندگان اشتباهات بیشتری داشته باشند و اشتباهات تقریباً 25 درصد افزایش یافت.

آزمایش سوم شامل چندین دور بود که در آن شرکت‌کننده وانمود می‌کرد یک سرمایه‌گذار است که به یک متولی (هوش مصنوعی) پول می‌دهد. سپس هوش مصنوعی مبلغی را به شرکت‌کننده برمی‌گرداند و وی سپس تصمیم می‌گیرد که در دور بعدی چه مقدار سرمایه‌گذاری کند. این بازی در دو حالت مختلف انجام می‌شد: اولی این که هدف هوش مصنوعی به حداکثر رساندن مقدار پول نهایی بود و در دیگری هوش مصنوعی برای توزیع عادلانه‌ی پول بین خود و سرمایه‌گذار انسانی هدف‌گذاری شده بود. هوش مصنوعی در هر دو حالت بسیار موفق بود.

در هر آزمایش، ماشین از پاسخ‌های شرکت‌کنندگان یاد می‌گرفت و آسیب‌پذیری در تصمیم‌گیری افراد را شناسایی و مورد هدف قرار می‌داد. نتیجه نهایی این بود که دستگاه یاد گرفت شرکت‌کنندگان را به سمت اقدامات خاص سوق دهد.


معنای تحقیق برای آینده هوش مصنوعی

این یافته‌ها هنوز کاملا انتزاعی بوده و شامل موقعیت‌های محدود و غیرواقعی است. برای تعیین چگونگی عملی شدن این رویکرد و استفاده از آن در راستای منافع جامعه، تحقیقات بیشتری لازم است.

اما این تحقیق درک ما را نه تنها از آنچه هوش مصنوعی می‌تواند انجام دهد، بلکه همچنین از چگونگی انتخاب افراد افزایش می‌دهد و نشان می‌دهد که ماشین‌آلات می‌توانند از طریق تعامل با ما، هدایت انتخاب انسان را یاد بگیرند.

این تحقیق طیف وسیعی از کاربردهای احتمالی را دارد، از تقویت علوم رفتاری و سیاست های عمومی برای بهبود رفاه اجتماعی، تا درک و تأثیرگذاری بر چگونگی پذیرش عادات غذایی سالم یا انرژی‌های تجدیدپذیر توسط مردم. از هوش مصنوعی و یادگیری ماشین می‌توان آسیب‌پذیری افراد را در موقعیت‌های خاص شناخت و به آنها کمک کرد تا از انتخاب‌های نادرست دور شوند.

از این روش می‌توان برای دفاع در برابر حملات نفوذی نیز استفاده کرد. به عنوان مثال می‌توان ماشین‌آلات را طوری آموزش داد که وقتی تحت تأثیر آنلاین قرار می‌گیریم، به ما هشدار دهند و به ما کمک کنند تا رفتاری را برای پنهان کردن آسیب‌پذیری خود شکل دهیم (به عنوان مثال، با کلیک نکردن روی برخی از صفحات یا کلیک کردن روی برخی دیگر برای ایجاد یک مسیر غلط).


قدم بعدی چیست؟

مانند هر فناوری دیگری، هوش مصنوعی می‌تواند به شیوه خوب یا بد مورد استفاده قرار بگیرد و برای اطمینان از اجرای آن به روش مسئولانه، نظارت و اداره‌ی مناسب بسیار مهم است. سال گذشته CSIRO یک چارچوب اخلاقی هوش مصنوعی برای دولت استرالیا به عنوان گام اولیه در این مسیر ایجاد کرد.

هوش مصنوعی و یادگیری ماشین به طور معمول بسیار گرسنه‌ی داده و اطلاعات هستند، به این معنی که اطمینان از وجود سیستم‌های موثر برای اداره و دسترسی به داده‌ها بسیار مهم است. اجرای فرآیندهای محافظت از حریم خصوصی هنگام جمع‌آوری اطلاعات ضروری است.

سازمان‌هایی که از هوش مصنوعی استفاده می‌کنند و در حال توسعه‌ی آن هستند باید اطمینان حاصل کنند که این فناوری‌ها چه کاری می‌توانند انجام دهند و چه کاری نمی‌توانند انجام دهند و از خطرات احتمالی و همچنین منافع آن آگاه باشند.

# هوش مصنوعی # یادگیری ماشین # شبکه عصبی بازگشتى # یادگیرى تقویتى عمیق # شبکه عصبی
نظری موجود نیست.

دیگر پست‌ها

  • مقدمه‌ای ساده بر یادگیری ماشین

    مقدمه‌ای ساده بر یادگیری ماشین

  • هوش مصنوعی می‌تواند رفتار انسان را دستکاری کند

    هوش مصنوعی می‌تواند رفتار انسان را دستکاری کند

  • هوش مصنوعی می‌تواند چهره‌هایی که به نظر شما جذاب است را تشخیص دهد

    هوش مصنوعی می‌تواند چهره‌هایی که به نظر شما جذاب است را تشخیص دهد