هوش مصنوعی (AI) در حال یادگیری بیشتر در مورد نحوه کار با انسان و همچنین کار بر روى انسان است. یک مطالعه جدید نشان داده است که چگونه هوش مصنوعی میتواند آسیب پذیریها را در عادات و رفتارهای انسان شناسایی کند و از آنها برای تأثیرگذاری در تصمیم گیری انسان استفاده کند.
ممکن است گفتن اینکه هوش مصنوعی همه جنبههای شیوه زندگی و کار ما را دگرگون میکند، کلیشهاى به نظر برسد، اما واقعیت دارد. انواع مختلف هوش مصنوعی در زمینههای متنوعی از جمله تولید واکسن، مدیریت محیط زیست و اداره محل کار، فعالیت مىکنند و با اینکه هوش مصنوعی از هوش و احساسات انسانی برخوردار نیست، تواناییهای آن بسیار قدرتمند و به سرعت در حال رشد است.
در مورد تصاحب قدرت توسط ماشینها در حال حاضر جاى نگرانى وجود ندارد، اما این کشف اخیر به قدرت هوش مصنوعی اشاره میکند و لزوم نظارت مناسب برای جلوگیری از سو استفاده تأکید میکند.
تیمی از محققان CSIRO's Data61، بازوی اطلاعاتی و دیجیتالی آژانس علمی ملی استرالیا، با استفاده از نوعی سیستم هوش مصنوعی به نام شبکه عصبی بازگشتى (RNN) و یادگیرى تقویتى عمیق، یک روش سیستماتیک برای یافتن و بهرهبرداری از آسیبپذیریها در روشهای انتخاب افراد ابداع کردند. آنها برای آزمایش مدل خود سه آزمایش را انجام دادند که در آن شرکتکنندگان انسانی در مقابل یک کامپیوتر بازی میکردند.
در اولین آزمایش شرکتکنندگان برای بدست آوردن یک پول جعلی بر روى جعبههاى قرمز یا آبى کلیک مىکردند و هوش مصنوعی الگوهای انتخاب شرکتکننده را یاد مىگرفت و آنها را به سمت یک انتخاب خاص راهنمایی مىکرد. هوش مصنوعی در حدود 70 درصد از مواقع موفق بود.
در آزمایش دوم شرکتکنندگان موظف بودند یک صفحه را تماشا کنند و وقتی نماد خاصی (مانند یک مثلث نارنجی) به آنها نشان داده مىشود، یک دکمه را فشار دهند و وقتی نماد دیگرى (مثلا یک دایره آبی) به آنها نشان داده شد، آن دکمه را فشار ندهند. در اینجا، هوش مصنوعی شروع به چیدن ترتیب نمادها کرد تا شرکت کنندگان اشتباهات بیشتری داشته باشند و اشتباهات تقریباً 25 درصد افزایش یافت.
آزمایش سوم شامل چندین دور بود که در آن شرکتکننده وانمود میکرد یک سرمایهگذار است که به یک متولی (هوش مصنوعی) پول میدهد. سپس هوش مصنوعی مبلغی را به شرکتکننده برمیگرداند و وی سپس تصمیم میگیرد که در دور بعدی چه مقدار سرمایهگذاری کند. این بازی در دو حالت مختلف انجام میشد: اولی این که هدف هوش مصنوعی به حداکثر رساندن مقدار پول نهایی بود و در دیگری هوش مصنوعی برای توزیع عادلانهی پول بین خود و سرمایهگذار انسانی هدفگذاری شده بود. هوش مصنوعی در هر دو حالت بسیار موفق بود.
در هر آزمایش، ماشین از پاسخهای شرکتکنندگان یاد میگرفت و آسیبپذیری در تصمیمگیری افراد را شناسایی و مورد هدف قرار میداد. نتیجه نهایی این بود که دستگاه یاد گرفت شرکتکنندگان را به سمت اقدامات خاص سوق دهد.
این یافتهها هنوز کاملا انتزاعی بوده و شامل موقعیتهای محدود و غیرواقعی است. برای تعیین چگونگی عملی شدن این رویکرد و استفاده از آن در راستای منافع جامعه، تحقیقات بیشتری لازم است.
اما این تحقیق درک ما را نه تنها از آنچه هوش مصنوعی میتواند انجام دهد، بلکه همچنین از چگونگی انتخاب افراد افزایش میدهد و نشان میدهد که ماشینآلات میتوانند از طریق تعامل با ما، هدایت انتخاب انسان را یاد بگیرند.
این تحقیق طیف وسیعی از کاربردهای احتمالی را دارد، از تقویت علوم رفتاری و سیاست های عمومی برای بهبود رفاه اجتماعی، تا درک و تأثیرگذاری بر چگونگی پذیرش عادات غذایی سالم یا انرژیهای تجدیدپذیر توسط مردم. از هوش مصنوعی و یادگیری ماشین میتوان آسیبپذیری افراد را در موقعیتهای خاص شناخت و به آنها کمک کرد تا از انتخابهای نادرست دور شوند.
از این روش میتوان برای دفاع در برابر حملات نفوذی نیز استفاده کرد. به عنوان مثال میتوان ماشینآلات را طوری آموزش داد که وقتی تحت تأثیر آنلاین قرار میگیریم، به ما هشدار دهند و به ما کمک کنند تا رفتاری را برای پنهان کردن آسیبپذیری خود شکل دهیم (به عنوان مثال، با کلیک نکردن روی برخی از صفحات یا کلیک کردن روی برخی دیگر برای ایجاد یک مسیر غلط).
مانند هر فناوری دیگری، هوش مصنوعی میتواند به شیوه خوب یا بد مورد استفاده قرار بگیرد و برای اطمینان از اجرای آن به روش مسئولانه، نظارت و ادارهی مناسب بسیار مهم است. سال گذشته CSIRO یک چارچوب اخلاقی هوش مصنوعی برای دولت استرالیا به عنوان گام اولیه در این مسیر ایجاد کرد.
هوش مصنوعی و یادگیری ماشین به طور معمول بسیار گرسنهی داده و اطلاعات هستند، به این معنی که اطمینان از وجود سیستمهای موثر برای اداره و دسترسی به دادهها بسیار مهم است. اجرای فرآیندهای محافظت از حریم خصوصی هنگام جمعآوری اطلاعات ضروری است.
سازمانهایی که از هوش مصنوعی استفاده میکنند و در حال توسعهی آن هستند باید اطمینان حاصل کنند که این فناوریها چه کاری میتوانند انجام دهند و چه کاری نمیتوانند انجام دهند و از خطرات احتمالی و همچنین منافع آن آگاه باشند.
# هوش مصنوعی # یادگیری ماشین # شبکه عصبی بازگشتى # یادگیرى تقویتى عمیق # شبکه عصبی