۷ خرداد ۱۴۰۲ - ۱۷:۲۷
بلاکچین ناجی هوش مصنوعی می‌شود؟

بلاکچین، شفاف، قابل ردیابی، قابل اعتماد و بدون دستکاری است. آیا هوش مصنوعی می‌تواند ابهام جعبه سیاه هوش مصنوعی را جبران کند؟

فردای اقتصاد: بلاکچین، شفاف، قابل ردیابی، قابل اعتماد و بدون دستکاری است. آیا بلاکچین می‌تواند ابهام جعبه سیاه هوش مصنوعی را جبران کند؟

اکثر انقلاب‌های مبتنی بر فناوری با جنبه‌های تاریک‌تر و پیش‌بینی‌نشده‌تری همراه هستند. وقتی فیزیکدانان اتریشی الاصل لیز مایتنر و اتو فریش برای نخستین بار اتم را در اواخر دهه ۱۹۳۰ شکافتند، احتمالاً پیش‌بینی نمی‌کردند که کشف آنها چند سال بعد به بمب اتمی منجر شود. به عقیده خیلی از افراد انقلاب هوش مصنوعی (AI) مسلماً تفاوتی ندارد.

الگوریتم‌های هوش مصنوعی دهه‌هاست که وجود دارند. نخستین شبکه عصبی مصنوعی، پرسپترون، در سال ۱۹۵۸ اختراع شد. اما سرعت توسعه اخیر خیره‌کننده بوده است و با دستگاه‌های تشخیص صدا مانند الکسا و ربات‌های چت مانند ChatGPT، به نظر می‌رسد هوش مصنوعی آگاهی عمومی جدیدی را به‌دست آورده است.

از جنبه مثبت، هوش مصنوعی می‌تواند سطح تحصیلات عمومی سیاره را به طرز چشمگیری افزایش دهد و به یافتن راه‌حل‌هایی برای بیماری‌های ویرانگر مانند آلزایمر کمک کند. اما همچنین می‌تواند مشاغل را جابه‌جا کند و دولت‌های مستبدی را تقویت کند که می‌توانند از آن برای نظارت بر جمعیت خود استفاده کنند. جفری هینتون، یکی از پیشگامان هوش مصنوعی، اخیراً هشدار داد، اگر ماشین‌ها به هوش «کلی» دست یابند، حتی ممکن است برای براندازی انتخابات و پیگرد قانونی جنگ‌ها آموزش ببینند.

جو بایدن، رئیس‌جمهوری ایالات متحده، اخیراً هوش مصنوعی را «ظرفیت عظیم و خطر عظیم» توصیف کرد. این اظهارات بعد از نامه سرگشاده هزار رهبر فناوری، بیان شد. در ماه مارس یک نامه سرگشاده از طرف هزار رهبر فناوری، از جمله ماسک و استیو وزنیاک، منتشر شد که در آن خواستار توقف پیشرفت‌های هوش مصنوعی مانند ChatGPT شد. آنها اعتقاد دارند که این فناوری خطرات عمیقی برای جامعه و بشریت خواهد داشت.

درحال‌حاضر، برخی از کشورها در برابر OpenAI، توسعه دهنده ChatGPT صف آرایی کرده‌اند. ایتالیا در ماه مارس ChatGPT را به طور موقت ممنوع کرد و کمیسر حریم خصوصی کانادا در حال بررسی OpenAI به اتهام جمع‌آوری و استفاده از اطلاعات شخصی بدون رضایت است. اتحادیه اروپا در حال مذاکره درباره قوانین جدید برای هوش مصنوعی است، در حالی که چین از توسعه دهندگان هوش مصنوعی می‌خواهد که از این پس قوانین سختگیرانه سانسور را رعایت کنند. مقداری از مقررات اجتناب ناپذیر به نظر می‌رسد.

پادزهری برای هوش مصنوعی

با این پیش‌زمینه، یک سوال پیش می‌آید: آیا فناوری بلاک چین می‌تواند مشکلاتی را که هوش مصنوعی ایجاد می‌کند را برطرف کند؟ به هر حال، فناوری دفتر کل غیرمتمرکز، مسلماً هر چیزی است که هوش مصنوعی نیست: شفاف، قابل ردیابی، قابل اعتماد و بدون دستکاری. این می‌تواند به جبران برخی از شفافیت راه‌حل‌های جعبه سیاه هوش مصنوعی کمک کند.

آنتونی دی، رئیس استراتژی و بازاریابی در Midnight، زنجیره جانبی Cardano ، در ماه آوریل در لینکدین نوشت، ما باید راهی ایجاد کنیم تا بتوانیم اعتماد، قابلیت ردیابی، شفافیت و عدم امکان سانسور را به طور خودکار در فناوری هوش مصنوعی و آنچه آن برای جهان به ارمغان خواهد آورد، ایجاد کنیم. بلاک چین‌ها می‌توانند مخزنی برای داده‌های آموزشی هوش مصنوعی باشند.

کاربران مدل‌های متمرکز هوش مصنوعی اغلب از سوگیری‌های ذاتی در آموزش خود آگاه نیستند. افزایش شفافیت برای مدل‌های هوش مصنوعی با استفاده از فناوری بلاک چین امکان‌پذیر است.

بسیاری موافقند که قبل از اینکه هوش مصنوعی به جریان اصلی تبدیل شود، باید کاری انجام داد. کی فرث باترفیلد، رئیس هوش مصنوعی و یادگیری ماشین در مجمع جهانی اقتصاد گفت: برای اعتماد به هوش مصنوعی، مردم باید دقیقاً بدانند و بفهمند که هوش مصنوعی چیست، چه کاری انجام می‌دهد و تاثیرات آن چه خواهد بود. رهبران و شرکت‌ها باید هوش مصنوعی شفاف و قابل اعتماد را با اجرای فناوری بلاکیچن در اولویت قرار دهند.

جالب اینجاست که کارهایی در این راستا در حال انجام است. در ماه فوریه، شرکت فین‌تک مستقر در ایالات متحده FICO حق اختراع «Blockchain for Data and Model Governance» را دریافت کرد که به طور رسمی فرآیندی را ثبت کرد که سال‌ها از آن برای اطمینان از شیوه‌های هوش مصنوعی «مسئولانه» استفاده می‌کرد.

به گفته این شرکت که بیش از ۳۰۰ دانشمند داده دارد و با بسیاری از افراد کار می‌کند، FICO از یک دفتر کل مبتنی بر اتریوم برای ردیابی منشأ توسعه، عملیاتی‌سازی و نظارت بر مدل‌های یادگیری ماشین به شیوه‌ای تغییرناپذیر استفاده می‌کند. قابل توجه است که تفاوت‌های ظریفی بین اصطلاحات هوش مصنوعی و یادگیری ماشینی وجود دارد، اما این اصطلاحات اغلب به جای یکدیگر استفاده می‌شوند.

اسکات زولدی، مدیر ارشد تجزیه و تحلیل FICO، در اوایل امسال در یک نشریه هوش مصنوعی نوشت، استفاده از بلاک چین قابلیت حسابرسی را ممکن می‌کند و مدل و اعتماد شرکتی را تقویت می‌کند. نکته مهم این است که بلاک چین مسیری از تصمیم گیری را فراهم می‌کند. در واقع بلاکچین نشان می‌دهد که آیا یک متغیر قابل قبول است، آیا سوگیری را در مدل وارد می‌کند یا اینکه آیا متغیر به درستی استفاده می‌شود…. و کل مراحل ساخت نمونه‌ها، اشتباهات، اصلاحات و پیشرفت‌هایشان را ثبت می‌کند. زلدی گفت که ابزارهای هوش مصنوعی باید به خوبی درک شوند و برای آینده‌ باید منصفانه، عادلانه و شفاف باشند.

جداسازی حقیقت از دروغ

برخی پیش‌بینی می‌کنند که دستگاه‌هایی مانند ChatGPT ممکن است تأثیر مخربی بر رسانه‌های اجتماعی و پلت‌فرم‌های خبری داشته باشند، به‌عنوان مثال، تشخیص مصنوعات از واقعیت را دشوار می‌کند.

این یکی از مکان‌هایی است که بلاک چین می‌تواند در پلتفرم‌های نوظهور بسیار مفید باشد و به طور مثال می‌توان برای اثبات اینکه شخص X در یک تاریخ/زمان خاص Y گفته است یا خیر استفاده شود.

در واقع، یک بلاک چین می‌تواند به ایجاد نوعی چارچوب برای پاسخگویی کمک کند. به عنوان مثال، افراد و سازمان‌ها می‌توانند به عنوان منابع قابل اعتماد ظاهر شوند.

بلاک چین می‌تواند برای ردیابی داده‌ها، آموزش، آزمایش، ممیزی و رویدادها به گونه‌ای استفاده شود که اطمینان حاصل شود که طرف نمی‌تواند برخی از رویدادهای رخ داده را تغییر دهد.

با این حال، همه موافق نیستند که بلاک چین می‌تواند به مشکلات ایجاد شده به وسیله هوش مصنوعی را برطرف کند. رومن بک، استاد دانشگاه فناوری اطلاعات کپنهاگ و رئیس مرکز بلاک چین اروپا، به مجله می‌گوید: «من تا حدودی شک دارم که بلاک چین را می‌توان به عنوان پادزهری برای هوش مصنوعی در نظر گرفت. ما امروز با چالش‌هایی در ردیابی آنچه که قراردادهای هوشمند واقعاً انجام می‌دهند، داریم و حتی اگر بلاک چین شفاف باشد، حسابرسی برخی از فعالیت‌ها سخت است.»

در جاهای دیگر، کمیسیون اروپا به دنبال ایجاد «فضای فراآتلانتیک برای #هوش مصنوعی قابل اعتماد» بوده است. اما وقتی از یکی از مقامات کمیسیون اروپا پرسیده شد که آیا فناوری بلاک چین می‌تواند به جبران شفافیت هوش مصنوعی کمک کند، تردید داشت و به مجله گفت:

بلاک چین ردیابی منابع داده را امکان‌پذیر می‌کند و از حریم خصوصی افراد محافظت می‌کند، اما به خودی خود مشکل جعبه سیاه را در شبکه‌های عصبی هوش مصنوعی برطرف نمی‌کند. بلاکچین به سیستم‌های هوش مصنوعی کمک نمی‌کند تا توضیحاتی درباره چگونگی و چرایی تصمیم‌گیری ارائه دهند.

وقتی الگوها دیوانه می‌شوند

شاید بلاک چین نتواند هوش مصنوعی را «نجات دهد»، اما همچنان راه‌هایی وجود دارد که این دو فناوری می‌توانند یکدیگر را تقویت کنند. محتمل‌ترین حوزه‌ای که بلاک چین می‌تواند به هوش مصنوعی کمک کند، جنبه حسابرسی است. اگر می‌خواهیم از هوش مصنوعی برای تقلب یا شرکت در هر فعالیت غیرقانونی دیگری جلوگیری کنیم، می‌توانیم برای ثبت نتایج هوش مصنوعی در دفتر کل درخواست کنیم.

وسایل نقلیه رانندگی خودران را در نظر بگیرید که با فناوری هوش مصنوعی توسعه یافته‌اند که در آن حسگرها، الگوریتم‌ها و زنجیره بلوکی یک سیستم عامل مستقل برای ارتباطات و هماهنگی بین ماشینی را فراهم می‌کنند. ممکن است هنوز نتوانیم توضیح دهیم که هوش مصنوعی چگونه تصمیم گرفته است، اما می‌توانیم مسئولیت‌پذیری و در نتیجه حاکمیت را تضمین کنیم.» یعنی، بلاک چین می‌تواند به ردیابی اینکه چه کسی یا چه کسی واقعاً مقصر بوده است، در زمانی که «الگو دیوانه شد» کمک کند.

با استفاده از بلاک چین، ممکن است بتوان یک رکورد شفاف و بدون دستکاری از داده‌های مورد استفاده برای آموزش مدل‌های هوش مصنوعی ایجاد کرد. با این حال، بلاک چین به خودی خود به تشخیص و کاهش سوگیری که چالش برانگیز بوده و هنوز یک سوال تحقیقاتی باز است، نمی‌پردازد.

پیاده‌سازی بلاک چین برای ردیابی مدل‌سازی هوش مصنوعی

در بخش شرکتی، بسیاری از شرکت‌ها هنوز برای دستیابی به هوش مصنوعی «قابل اعتماد» در تلاش هستند. FICO و Corinium اخیراً حدود ۱۰۰ شرکت خدمات مالی آمریکای شمالی را مورد بررسی قرار دادند و دریافتند که ۴۳ درصد از آنها با ساختارهای مدیریتی هوش مصنوعی رابطه خوبی ندارند. در همان زمان، تنها ۸ درصد گزارش دادند که استراتژی‌های هوش مصنوعی آنها «با استانداردهای توسعه مدل به طور مداوم مقیاس‌بندی شده‌اند».

FICO که در سال ۱۹۵۶ با عنوان Fair، Isaac and Company تأسیس شد، پیشگام در استفاده از تجزیه و تحلیل، پیش‌بینی و علم داده برای تصمیم گیری‌های تجاری عملیاتی بوده است. این شرکت مدل‌های هوش مصنوعی می‌سازد که به کسب‌وکارها در مدیریت ریسک، مبارزه با تقلب و بهینه‌سازی عملیات کمک می‌کند.

زولدی در پاسخ به این سوال که چگونه این شرکت در سال ۲۰۱۷ از یک بلاک چین مجاز اتریوم برای کارهای تحلیلی خود استفاده کرد، توضیح داد که در آن زمان، چیزی در حدود ۷۰ تا ۸۰ درصد از تمام مدل‌های هوش مصنوعی در حال توسعه هرگز به تولید نرسید.

یکی از مشکلات کلیدی این بود که دانشمندان داده، حتی در یک سازمان، به روش‌های مختلف مدل می‌ساختند. بسیاری نیز پس از تکمیل مدل‌ها در بررسی‌های حاکمیتی شکست خوردند. یک آزمایش تعقیبی ممکن است نشان دهد که یک ابزار مبتنی بر هوش مصنوعی برای کشف کلاهبرداری، ممکن است به عنوان مثال، به طور ناخواسته علیه گروه‌های قومی خاص تبعیض ایجاد ‌کند.

FICO شروع به توسعه یک استاندارد مدیریت مسئولیت‌پذیر هوش مصنوعی کرد که از یک بلاک چین برای اجرای آن استفاده می‌کرد. توسعه‌دهندگان باید از قبل از الگوریتم‌هایی که ممکن است استفاده شوند، پروتکل‌های آزمایش اخلاقی که باید دنبال شوند، آستانه‌های مدل‌های بی‌طرفانه و سایر فرآیندهای مورد نیاز مطلع شوند.

در همین حال، بلاک چین کل سفر را در توسعه هر مدل، از جمله خطاها، اصلاحات و نوآوری‌ها ثبت می‌کند. بنابراین، برای هر دانشمندی که مدلی را توسعه می‌دهد، دیگری کار را بررسی می‌کند و سومی تأیید می‌کند که همه آنها به درستی انجام شده است.

مسئولیت اخلاقی و قانونی

توسعه دهندگان تجاری می‌توانند به تجربیاتی مانند FICO توجه کنند، زیرا رهبران سیاسی به وضوح متوجه خطرات ارائه شده توسط هوش مصنوعی هستند. کامالا هریس، معاون رئیس‌جمهوری ایالات متحده در بیانیه‌ای گفت: بخش خصوصی مسئولیت اخلاقی و قانونی برای تضمین ایمنی و امنیت محصولات خود دارد. هر شرکتی برای محافظت از مردم آمریکا باید قوانین موجود را رعایت کند.

نگرانی‌ها نیز جهانی است. برای اطمینان از سودمندی هوش مصنوعی برای جامعه، به یک رویکرد دو جانبه نیاز است. در درجه اول، تحقیقات بیشتر در زمینه هوش مصنوعی برای بهبود فناوری، شفافیت، قابلیت فهم و افزایش دقت، ضروری است. در درجه دوم، مقررات مناسبی برای مدل‌های هوش مصنوعی باید ایجاد شود.

بخش خصوصی باید مزایای خودتنظیمی را بسنجید. این می‌تواند برای توسعه دهندگان یک سازمان یک مزیت باشد. اخلاق در نحوه ساخت مدل‌ها و استانداردهای مورد استفاده اغلب مشخص نیست.

سازندگان دستگاه‌های هوش مصنوعی نمی‌خواهند به مردم آسیب برسانند، اما اغلب ابزارهای لازم برای اطمینان از اینکه این اتفاق نمی‌افتد در اختیار آنها قرار نمی‌گیرد. یک بلاک چین می‌تواند کمک کند.

"شما با کارشناسان اعتقاد دارند که آنقدر باهوش هستند که بتوانند این فناوری را تولید کنند اما آنقدر باهوش نیستند که بتوانند آن را تنظیم کنند، بفهمند یا توضیح دهند.

در مجموع، ظرفیت بلاک چین برای پشتیبانی از یک هوش مصنوعی مسئول هنوز به طور گسترده شناخته نشده است، اما به زودی ممکن است تغییر کند. برخی، مانند آنتونی دی، حتی روی آن شرط می‌بندند: «مطمئن نیستم که بلاک چین واقعاً جهان را نجات دهد، اما مطمئن هستم که می‌تواند هوش مصنوعی را نجات دهد».

برچسب‌ها

تبادل نظر

شما در حال پاسخ به نظر «» هستید.
captcha