ذهن و هوش

چگونه در دنیای هوشمند باهوش بمانیم

چرا هوش انسان هنوز الگوریتم ها را شکست می دهد؟

در دهه 1950، دانشمند علوم سیاسی و یکی از بنیانگذاران هوش مصنوعی – اعلام کرد که زمانی که یک کامپیوتر بتواند بهترین بازیکن شطرنج جهان را شکست دهد، ماشین‌ها به اوج هوش انسانی می‌رسند. تنها چند دهه بعد، در سال 1997، کامپیوتر شطرنج‌باز Deep Blue، قهرمان جهان، گری کاسپاروف را شکست داد.

این یک شاهکار چشمگیر بود، اما به گفته روانشناس موسسه توسعه انسانی در برلین، ذهن انسان هنوز نیازی به نگرانی ندارد. در کتاب چگونه در دنیای هوشمند ،هوشمند بمانیم، او رابطه پیچیده بشریت با هوش مصنوعی و فناوری دیجیتال را باز می کند. در عصری که اتومبیل‌های خودران در جاده‌ها رها شده‌اند، خانه‌های هوشمند می‌توانند هر نیاز ما را پیش‌بینی کرده و برآورده کنند و به نظر می‌رسد که وب‌سایت‌ها ترجیحات ما را بهتر از ما می‌دانند، مردم تمایل دارند «تقریباً دانایی هوش مصنوعی را فرض کنند. گیگرنزر می گوید. اما، او استدلال می کند، هوش مصنوعی آنقدرها که فکر می کنید باهوش نیستند.

برای مثال، یک مطالعه در سال 2015 نشان داد که حتی هوشمندترین سیستم تشخیص اشیا نیز به راحتی فریب می‌خورد و الگوهای بی‌معنا را با اطمینان به عنوان اشیایی با اطمینان بیش از 99 درصد طبقه‌بندی می‌کند. و در فینال لیگ قهرمانان اروپا در سال 2017 در کاردیف، انگلستان، یک سیستم تشخیص چهره چهره 2470 طرفدار فوتبال در استادیوم و ایستگاه راه آهن شهر را با چهره مجرمان شناخته شده مطابقت داد. این می‌توانست مفید باشد، اما برای 92 درصد از مسابقات، آلارم‌های کاذب بودند، علی‌رغم اینکه سیستم به گونه‌ای طراحی شده بود که هم کارآمدتر و هم قابل اعتمادتر از انسان باشد.

Gigerenzer می‌گوید دلایل خوبی وجود دارد که چرا حتی هوشمندترین سیستم‌ها از کار می‌افتند. برخلاف شطرنج که قوانینی سفت و غیرقابل تغییر دارد، دنیای انسان ها سخت و ناسازگار است. در مواجهه با عدم قطعیت در دنیای واقعی، الگوریتم ها از هم می پاشند.

در اینجا، ما به اصل بحث اصلی Gigerenzer می رسیم: فناوری، حداقل آن گونه که امروز می شناسیم، هرگز نمی تواند جایگزین انسان شود، زیرا هیچ الگوریتمی برای عقل سلیم وجود ندارد. دانستن، اما نه درک واقعی، هوش مصنوعی را در مورد آنچه واقعا مهم است، در تاریکی رها می کند.

بدیهی است که فناوری می تواند مفید باشد و اغلب نیز مفید است. نرم‌افزار تشخیص چهره و صدا در گوشی‌های هوشمند تا حد زیادی راحت است و این واقعیت که به نظر می‌رسد YouTube می‌داند من می‌خواهم چه چیزی را تماشا کنم، از زحمت انجام آن برای خودم جلوگیری می‌کند. با این حال، حتی اگر فناوری هوشمند بیشتر مفید باشد، و نشانه‌های کمی از جایگزینی ما را نشان دهد، Gigerenzer استدلال می‌کند که ما همچنان باید از خطراتی که می‌تواند برای جامعه ما ایجاد کند آگاه باشیم.

“دانستن، اما نه درک واقعی، هوش مصنوعی را در مورد آنچه واقعا مهم است در تاریکی رها می کند.”

فناوری دیجیتال اقتصادی را ایجاد کرده است که با مبادله داده های شخصی معامله می کند که می تواند علیه بهترین منافع ما مورد استفاده قرار گیرد. شرکت‌ها و احزاب سیاسی می‌توانند آگهی‌های هدفمندی را خریداری کنند که به‌طور نامحسوسی بر انتخاب‌های خرید آنلاین ما و حتی بدتر از آن، نحوه رأی دادن ما تأثیر می‌گذارد. Gigerenzer می نویسد: «کسی ممکن است این چرخش به یک مدل کسب و کار مبتنی بر آگهی را «گناه اصلی» اینترنت بنامد.

بنابراین، چه کاری می توان انجام داد؟ Gigerenzer می گوید که شفافیت بیشتر از سوی شرکت های فناوری و تبلیغ کنندگان حیاتی است. اما کاربران فناوری نیز باید رابطه خود را با آن تغییر دهند. او می‌گوید به‌جای برخورد با فناوری با هیبت یا سوء ظن تسلیم‌ناپذیر، باید دوز سالمی از بدبینی را پرورش دهیم. در عصری که به نظر می‌رسد افزایش اعتیاد به رسانه‌های اجتماعی، نقض منظم حریم خصوصی و انتشار اطلاعات نادرست را به‌عنوان جنبه‌های منفی اجتناب‌ناپذیر استفاده از اینترنت می‌پذیریم – حتی زمانی که آسیب‌های قابل توجهی به جامعه وارد می‌کنند – شاید زمان آن رسیده است که بررسی کنیم و تجدید نظر کنیم.

Gigerenzer با استفاده از حکایات شخصی، تحقیقات پیشرفته و داستان های احتیاطی در دنیای واقعی، محدودیت ها و خطرات فناوری و هوش مصنوعی را به طرز ماهرانه ای توضیح می دهد. او گهگاه از مثال‌های افراطی برای بیان نکته استفاده می‌کند و در جاهایی خطوط بین فناوری دیجیتال، فناوری هوشمند، الگوریتم‌ها و هوش مصنوعی را محو می‌کند که آب‌ها را گل آلود می‌کند. با این وجود، پیام کلی کتاب گیگرنزر همچنان پابرجاست: در جهانی که به طور فزاینده‌ای به فناوری برای کارکرد آن متکی است، تشخیص انسان حیاتی است «برای اینکه دنیای دیجیتال را به جهانی تبدیل کنیم که می‌خواهیم در آن زندگی کنیم».

 

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا