ifintech

ifintech

iفین تک (ای فین تک - آی فین تک)

با هدف ارائه دقیق‌ترین و به‌روزترین اخبار و تحلیل‌های حوزه فین‌تک، ارز دیجیتال و تکنولوژی راه‌اندازی شده است. ما تلاش می‌کنیم با انتشار مقالات آموزشی، بررسی‌های تخصصی و تحلیل‌های بازار، کاربران را در مسیر درک بهتر فناوری‌های مالی، بلاک‌چین، بیت‌کوین و سرمایه‌گذاری همراهی کنیم. مأموریت ما اطلاع‌رسانی شفاف و ارائه اطلاعات معتبر برای علاقه‌مندان به دنیای اقتصاد دیجیتال است.

راه های ارتباطی

دقت لازم برای تولید این خبر در قالب خواسته شده اهمیت داره ChatGPT said:

دقت لازم برای تولید این خبر در قالب خواسته شده اهمیت داره    ChatGPT said:

با رشد تصاعدی استفاده از هوش مصنوعی در بازارهای مالی، هشدارهای نهادهای نظارتی نیز افزایش یافته است. به گزارش iفین‌تک، بانک انگلستان در تازه‌ترین گزارش خود به ریسک‌های جدی ناشی از معاملات الگوریتمی مبتنی بر هوش مصنوعی پرداخته و اعلام کرده است که استفاده گسترده و بدون چارچوب از این فناوری می‌تواند به بی‌ثباتی بازارهای مالی منجر شود.

رشد استفاده از AI در بازارهای مالی

در سال‌های اخیر، شرکت‌های سرمایه‌گذاری و مؤسسات مالی به‌طور فزاینده‌ای به الگوریتم‌های یادگیری ماشین، تحلیل داده‌های کلان و مدل‌های پیش‌بینی مبتنی بر AI برای تصمیم‌گیری‌های لحظه‌ای در بازارهای سهام، اوراق قرضه و رمزارزها روی آورده‌اند. این روند موجب افزایش سرعت معاملات، کاهش هزینه‌ها و ارتقاء دقت شده است؛ اما در عین حال نگرانی‌های جدیدی را نیز ایجاد کرده است.

بانک انگلستان هشدار داده که رفتار جمعی مدل‌های هوش مصنوعی، به‌ویژه در شرایط غیرقابل‌پیش‌بینی بازار، می‌تواند به «رفتارهای گله‌ای دیجیتال» منجر شود؛ وضعیتی که در آن الگوریتم‌های مشابه هم‌زمان تصمیماتی مشابه می‌گیرند و باعث سقوط یا رشد شدید بازار می‌شوند.

رفتار گله‌ای در سیستم‌های خودکار

در گزارش منتشرشده توسط کمیته سیاست مالی بانک انگلستان، آمده است:«سیستم‌های مبتنی بر هوش مصنوعی اگر به‌طور مشابه آموزش داده شده باشند یا به ورودی‌های یکسان واکنش نشان دهند، ممکن است در مواقع بحران به شکل جمعی عمل کرده و موجب نوسانات شدید شوند.»

تحلیل iفین‌تک نشان می‌دهد که این رفتار، مشابه اتفاقاتی است که در معاملات با فرکانس بالا (High-Frequency Trading) در سال‌های گذشته مشاهده شده بود، اما با این تفاوت که اکنون سرعت تصمیم‌گیری و سطح اتوماسیون بسیار بالاتر رفته است.

غیاب شفافیت و ریسک نظارتی

یکی از مهم‌ترین چالش‌هایی که بانک انگلستان به آن اشاره می‌کند، عدم شفافیت الگوریتم‌ها است. بسیاری از مدل‌های یادگیری عمیق به‌گونه‌ای طراحی شده‌اند که تصمیمات آن‌ها به‌سادگی قابل تفسیر نیست و همین امر نظارت بر آن‌ها را دشوار می‌کند.

همچنین مشخص نیست در شرایط بحرانی، مسئولیت تصمیمات اشتباه یا نتایج فاجعه‌بار به عهده چه نهادی خواهد بود: آیا شرکت توسعه‌دهنده، مدیر پورتفوی یا الگوریتم مسئول است؟

در همین راستا، بانک انگلستان خواستار تدوین چارچوب‌های نظارتی خاص برای معاملات هوش مصنوعی شده است که در آن، موضوعاتی همچون شفافیت، قابلیت حسابرسی، و مدیریت ریسک مد نظر قرار گیرد.

سناریوهای بحرانی احتمالی

تحلیل آی فین‌تک از سناریوهای محتمل نشان می‌دهد که در صورت بروز شرایط غیرمنتظره مانند حملات سایبری، اختلالات سیستمی، یا انتشار اخبار جعلی، سیستم‌های AI ممکن است تصمیماتی سریع و یک‌جانبه اتخاذ کنند که به‌صورت دومینویی بر کل بازار اثر بگذارد.

برای مثال، اگر مدل‌های پیش‌بینی قیمت سهام با همگام‌سازی رفتار کنند و به‌طور همزمان دست به فروش بزنند، این رفتار جمعی می‌تواند در عرض چند دقیقه باعث افت شدید شاخص‌های بورس شود.

نیاز به همکاری جهانی

بانک انگلستان در این گزارش همچنین بر ضرورت همکاری‌های فرامرزی میان نهادهای نظارتی تأکید کرده است. از آنجا که بازارهای مالی ماهیت جهانی دارند، مقررات یک کشور به‌تنهایی کافی نیست و باید نهادهای مالی در اروپا، آمریکا و آسیا به یک زبان مشترک درباره AI در بازار برسند.

در همین راستا، بانک مرکزی انگلستان پیشنهاد داده است که سازمان‌هایی مانند FSB (هیئت ثبات مالی) و BIS (بانک تسویه حساب‌های بین‌المللی) پیش‌نویس‌هایی برای نظارت یکپارچه بر AI در معاملات تهیه کنند.

وضعیت فعلی در بریتانیا و اروپا

طبق اطلاعات موجود، در حال حاضر چندین شرکت بزرگ مالی در لندن و فرانکفورت از AI برای مدیریت پورتفوی و تصمیم‌گیری در معاملات استفاده می‌کنند. اگرچه این فناوری باعث افزایش بازدهی شده، اما رگولاتورها هنوز ابزارهای کافی برای رصد این الگوریتم‌ها ندارند.

در اروپا، طرح «قانون هوش مصنوعی اتحادیه اروپا» (EU AI Act) در حال تدوین است که هدف آن دسته‌بندی و کنترل کاربردهای پرریسک AI، از جمله در بازارهای مالی است. انتظار می‌رود بریتانیا نیز در آینده‌ای نزدیک چارچوب مشابهی ارائه دهد.

هشدار بانک انگلستان، زنگ خطری جدی برای توسعه‌دهندگان، سرمایه‌گذاران و نهادهای نظارتی است. همان‌طور که در گزارش آی فین‌تک نیز آمده است، استفاده بی‌رویه از AI بدون نظارت و چارچوب مشخص، نه‌تنها مزایای بالقوه آن را تهدید می‌کند، بلکه می‌تواند به عاملی برای بی‌ثباتی سیستم مالی جهانی تبدیل شود.

در آینده‌ای نه‌چندان دور، شاید یکی از کلیدی‌ترین مسئولیت‌های رگولاتورها، اطمینان از عملکرد ایمن، شفاف و مسئولانه هوش مصنوعی در بازارهای مالی باشد. شکی نیست که هوش مصنوعی می‌تواند تحول‌آفرین باشد، اما اگر بدون کنترل باشد، همان‌قدر خطرناک خواهد بود.

نویسنده

اصغر لاله دشتی

با بیش از 30 سال سابقه در حوزه خبرنگاری و عکاسی خبری، مدیریت این وب‌سایت را بر عهده دارد. او با تکیه بر تجربه ارزشمند خود در دنیای رسانه، این بستر آنلاین را راه‌اندازی کرده تا بتواند اخبار را با کیفیت بالا، سرعت و دقت به مخاطبان ارائه کند.

ثبت دیدگاه

برای ثبت دیدگاه نام و ایمیل الزامی می باشد *

شکیبا باشید ...