“معماران هوش مصنوعی”؛ چرا انتخاب مجله TIME برای شخصیت سال 2025، هشداری جدی برای دنیای IT و امنیت سایبری است؟
مجله معتبر TIME در انتخاب شخصیت سال ۲۰۲۵، سنت چند دههای خود را شکست و بهجای یک فرد، گروهی از رهبران برجسته فناوری را با عنوان “معماران هوش مصنوعی” (The Architects of AI) معرفی کرد؛ انتخابی که بهروشنی نشان میدهد هوش مصنوعی دیگر صرفاً یک فناوری نوظهور نیست، بلکه به زیرساختی بنیادین برای اقتصاد دیجیتال، امنیت ملی و آینده فناوری اطلاعات تبدیل شده است.
در جلد مجله TIME، چهرههایی حضور دارند که هر یک نقشی کلیدی در توسعه و جهتدهی به هوش مصنوعی ایفا کردهاند؛ از سم آلتمن (OpenAI)، جنسن هوانگ (NVIDIA) و دمیس هاسابیس (Google DeepMind) گرفته تا داریو آمودی (Anthropic)، فیفی لی (Stanford HAI)، لیزا سو (AMD)، مارک زاکربرگ (Meta) و ایلان ماسک.

افراد برگزیده
سم آلتمن (Sam Altman) – OpenAI
سم آلتمن با هدایت OpenAI، نقش کلیدی در گسترش مدلهای زبانی بزرگ ایفا کرده؛ مدلهایی که امروز در قلب بسیاری از سامانههای IT و امنیتی استفاده میشوند. این فناوریها همزمان ابزار قدرتمندی برای تحلیل تهدید، خودکارسازی پاسخ به رخداد و افزایش بهرهوری تیمهای امنیتی هستند و در عین حال میتوانند برای تولید بدافزار، فیشینگ پیشرفته و مهندسی اجتماعی هوشمند بهکار روند. چالش اصلی میراث آلتمن، ایجاد توازن میان نوآوری سریع و ایمنسازی مدلهای عمومی AI است.
جنسن هوانگ (Jensen Huang) – NVIDIA
جنسن هوانگ زیرساخت سختافزاری انقلاب هوش مصنوعی را ساخت. GPUهای NVIDIA ستون فقرات مراکز داده AI، پلتفرمهای امنیتی پیشرفته و سامانههای XDR و تحلیل تهدید هستند. در عین حال، تمرکز قدرت محاسباتی در چند شرکت محدود، ریسکهای امنیتی و ژئوپلیتیکی جدیدی ایجاد کرده و هر اختلال یا سوءاستفاده از این زیرساخت میتواند اثرات زنجیرهای در امنیت جهانی فناوری اطلاعات داشته باشد.
دمیس هاسابیس (Demis Hassabis) – Google DeepMind
دمیس هاسابیس نماینده رویکرد پژوهشمحور و بلندمدت به هوش مصنوعی است. تمرکز DeepMind بر مدلهای قابل تفسیر، ایمنی و کنترلپذیری AI، مستقیماً با دغدغههای امنیت سایبری همراستا است. دستاوردهای این شرکت نشان میدهد که بدون درک رفتار داخلی مدلها، استفاده از AI در زیرساختهای حساس فناوری اطلاعات میتواند به ریسکهای پیشبینیناپذیر منجر شود.
داریو آمودی (Dario Amodei) – Anthropic
داریو آمودی با تأسیس Anthropic، مفهوم AI ایمن و همراستا (Aligned AI) را به مرکز توجه صنعت آورده است. تمرکز این شرکت بر محدودسازی رفتارهای خطرناک مدلها، برای سازمانهایی که از AI در سیستمهای امنیتی و تصمیمگیر استفاده میکنند حیاتی است. رویکرد آمودی یادآور این واقعیت است که امنیت AI تنها فنی نیست، بلکه یک مسئله طراحی و حکمرانی است.
فیفی لی (Fei-Fei Li) – Stanford HAI
فیفی لی با تمرکز بر هوش مصنوعی انسانمحور، نقش مهمی در پیوند فناوری با اخلاق و امنیت ایفا کرده است. دیدگاه او تأکید میکند که AI بدون درنظر گرفتن انسان، منجر به نقض حریم خصوصی، تبعیض الگوریتمی و ضعفهای امنیتی ساختاری میشود. این رویکرد برای طراحی سیستمهای امن و قابل اعتماد در IT حیاتی است.
لیزا سو (Lisa Su) – AMD
لیزا سو با توسعه پردازندهها و شتابدهندههای محاسباتی AMD، به تنوعبخشی زیرساخت سختافزاری AI کمک کرده است. این تنوع برای امنیت IT اهمیت بالایی دارد، زیرا کاهش وابستگی به یک تأمینکننده، ریسکهای زنجیره تأمین و تکنقطه شکست را کاهش میدهد. نقش AMD در این اکوسیستم، بهطور غیرمستقیم به تابآوری امنیتی کمک میکند.
مارک زاکربرگ (Mark Zuckerberg) – Meta
مارک زاکربرگ با در اختیار داشتن حجم عظیمی از دادههای کاربران، یکی از بازیگران حساس در امنیت AI محسوب میشود. توسعه مدلهای متنباز AI توسط Meta فرصتهایی برای نوآوری امنیتی ایجاد کرده، اما همزمان خطر سوءاستفاده، دیپفیک و عملیات نفوذ اطلاعاتی را نیز افزایش داده است. تصمیمهای Meta تأثیر مستقیمی بر امنیت اطلاعات در مقیاس اجتماعی دارند.
ایلان ماسک (Elon Musk) – xAI
ایلان ماسک یکی از صریحترین منتقدان خطرات هوش مصنوعی کنترلنشده است. فعالیتهای او در xAI و مواضع عمومیاش، بحث ایمنی، شفافیت و تهدیدهای وجودی AI را به فضای عمومی و سیاستگذاری امنیتی کشانده است. ماسک یادآوری میکند که بزرگترین تهدید AI ممکن است نه یک حمله سایبری، بلکه تصمیمگیری نادرست در سطح کلان باشد.
نقطه بدون بازگشت فناوری
به گفته سم جیکوبز، سردبیر TIME، سال ۲۰۲۵ سالی بود که “پتانسیل کامل هوش مصنوعی با صدایی بلند آشکار شد” و عملاً مسیر بازگشتی برای سازمانها، دولتها و صنایع باقی نگذاشت. AI به پاسخ پیشفرض بسیاری از پرسشها تبدیل شد؛ از تحلیل دادههای عظیم و شتاببخشی به تحقیقات پزشکی گرفته تا تصمیمسازیهای کلان اقتصادی و امنیتی.
این نگاه با ارزیابیهای نهادهای بینالمللی نیز همراستاست. گزارشهای World Economic Forum و Gartner نشان میدهند که هوش مصنوعی تا سالهای آینده، ستون فقرات تصمیمگیری در سازمانها خواهد بود و بخش IT بدون AI عملاً کارایی رقابتی خود را از دست میدهد.
هوش مصنوعی و دگرگونی امنیت سایبری
برای متخصصان امنیت فناوری اطلاعات، انتخاب “معماران هوش مصنوعی” معنایی فراتر از یک افتخار رسانهای دارد. AI امروز همزمان در دو جبهه فعال است: دفاع و حمله.
از یک سو، ابزارهای مبتنی بر یادگیری ماشین و مدلهای زبانی بزرگ (LLM) باعث تحول در:
- تشخیص تهدید (Threat Detection)
- پاسخ خودکار به رخدادها (SOAR)
- تحلیل رفتار کاربران و موجودیتها (UEBA)
- پیشبینی حملات و کاهش زمان شناسایی (MTTD)
شدهاند. بسیاری از راهکارهای XDR، EDR و SIEM نسل جدید بدون AI عملاً قابل تصور نیستند.
اما از سوی دیگر، همانطور که TIME هم اشاره میکند، مهاجمان سایبری نیز بهسرعت در حال مسلح شدن به AI هستند. گزارشهای امنیتی سالهای اخیر نشان میدهد:
- حملات فیشینگ با متنها و ویدیوهای تولیدشده توسط AI بسیار متقاعدکنندهتر شدهاند.
- بدافزارهای هوشمند میتوانند رفتار خود را برای فرار از شناسایی تغییر دهند.
- تولید دیپفیک و جعل هویت دیجیتال، تشخیص واقعیت از دروغ را دشوارتر از همیشه کرده است.
تمرکز قدرت و ریسکهای ساختاری
TIME در مقاله خود به نکتهای حساس اشاره میکند: تمرکز بیسابقه قدرت محاسباتی، داده و سرمایه در دست تعداد محدودی از شرکتها. این موضوع، از نگاه امنیت اطلاعات، تنها یک بحث اقتصادی نیست؛ بلکه یک ریسک ساختاری محسوب میشود.
زمانی که زیرساختهای AI، مراکز داده عظیم و مدلهای پایه (Foundation Models) در اختیار چند بازیگر محدود باشد، پیامدهایی مانند:
- وابستگی شدید سازمانها به تأمینکنندگان خاص
- افزایش سطح حمله (Attack Surface) در مقیاس جهانی
- ریسکهای حاکمیتی و ژئوپلیتیکی
بهطور جدی مطرح میشود؛ موضوعی که در اسناد NIST و سیاستگذاریهای امنیت سایبری اتحادیه اروپا نیز مورد توجه قرار گرفته است.
AI؛ فرصت یا قمار بزرگ؟
مجله TIME در جمعبندی خود، وضعیت فعلی هوش مصنوعی را یک “قمار بزرگ تاریخی” توصیف میکند. قماری که میتواند به نوآوریهای شگفتانگیز، افزایش بهرهوری و ارتقای امنیت منجر شود، یا در صورت نبود حکمرانی و راهبری صحیح، نابرابری، ناامنی و بیثباتی دیجیتال را تشدید کند.
برای مدیران IT و امنیت سایبری، پیام این انتخاب روشن است: هوش مصنوعی دیگر یک ابزار جانبی نیست؛ بلکه هسته تصمیمگیری، دفاع و حتی تهدید در دنیای فناوری اطلاعات است. سازمانهایی که از امروز استراتژی مشخصی برای استفاده امن، اخلاقی و هوشمندانه از AI نداشته باشند، در آیندهای نهچندان دور با ریسکهایی روبهرو خواهند شد که مهار آنها بسیار پرهزینهتر از امروز است.