...
دوشنبه 7 اسفند 1402
علمی

مطالعه OpenAI و بیان نقش هوش مصنوعی در ایجاد تهدید بیولوژیکی در آینده

نقش هوش مصنوعی در تهدید بیولوژیکی

OpenAI، سازمان تحقیقاتی پشت مدل زبانی قدرتمند GPT-4، مطالعه جدیدی را منتشر کرده است. که امکان استفاده از هوش مصنوعی را برای کمک به ایجاد تهدیدات بیولوژیکی بررسی می‌کند. این مطالعه که هم متخصصان زیست‌شناسی و هم دانش‌آموزان را شامل می‌شد، نشان داد که GPT-4 در مقایسه با منابع موجود در اینترنت، «حداکثر افزایش خفیفی» در دقت ایجاد تهدیدات بیولوژیکی ایجاد می‌کند.

این مطالعه بخشی از چارچوب آمادگی OpenAI است که هدف آن ارزیابی و کاهش خطرات بالقوه قابلیت‌های هوش مصنوعی پیشرفته است. به‌ویژه آن‌هایی که می‌توانند «خطرات مرزی» ایجاد کنند. تهدیدات غیر متعارفی که جامعه کنونی آن را به خوبی درک یا پیش‌بینی نکرده است. یکی از این خطرات مرزی، توانایی سیستم‌های هوش مصنوعی، مانند مدل‌های زبان بزرگ (LLM) برای کمک به عوامل مخرب در توسعه و اجرای حملات بیولوژیکی، مانند سنتز پاتوژن‌ها یا سموم است.

روش شناسی و نتایج مطالعه OpenAI

برای ارزیابی این خطر، محققان یک ارزیابی انسانی با 100 شرکت‌کننده، متشکل از 50 متخصص زیست‌شناسی با مدرک دکترا و تجربه آزمایشگاه حرفه‌ای و 50 شرکت‌کننده در سطح دانشجو، با حداقل یک دوره دانشگاهی در زیست‌شناسی، انجام دادند. هر گروه از شرکت کنندگان به طور تصادفی به یک گروه کنترل که فقط به اینترنت دسترسی داشتند. یا یک گروه درمانی که علاوه بر اینترنت به GPT-4 دسترسی داشتند، تقسیم شدند. سپس از هر شرکت‌کننده خواسته شد تا مجموعه‌ای از وظایف را که جنبه‌های فرآیند سرتاسری برای ایجاد تهدید بیولوژیکی را پوشش می‌دهد، مانند ایده‌پردازی، اکتساب، بزرگ‌نمایی، فرمول‌بندی و انتشار را تکمیل کند.

محققان عملکرد شرکت‌کنندگان را در پنج معیار اندازه‌گیری کردند: دقت، کامل بودن، نوآوری، زمان صرف شده و دشواری خود ارزیابی. آنها دریافتند که GPT-4 عملکرد شرکت کنندگان را در هیچ یک از معیارها به طور قابل توجهی بهبود نمی‌بخشد. به جز افزایش جزئی در دقت برای گروهی در سطح دانش آموز. محققان همچنین خاطرنشان کردند که GPT-4 اغلب پاسخ‌های اشتباه یا گمراه کننده‌ای ایجاد می‌کند که می‌تواند فرآیند ایجاد تهدید بیولوژیکی را مختل کند.

بیشتر بخوانید: هوش مصنوعی و تاثیر آن بر مشاغل آینده

آیا هوش مصنوعی خطرناک است؟

محققان به این نتیجه رسیدند که نسل فعلی LLM ها، مانند GPT-4، در مقایسه با منابع موجود در اینترنت، خطر قابل توجهی برای ایجاد تهدید بیولوژیکی ندارد. با این حال، آنها هشدار دادند که این یافته قطعی نیست و LLM های آینده می‌توانند توانمندتر و خطرناک‌تر شوند. آنها همچنین بر نیاز به تحقیقات مستمر و مشورت در جامعه در مورد این موضوع و همچنین توسعه روش‌های ارزیابی بهبودیافته و دستورالعمل‌های اخلاقی برای خطرات ایمنی مبتنی بر هوش مصنوعی تأکید کردند.

OpenAI تنها سازمانی نیست که نگران سوء استفاده احتمالی از هوش مصنوعی برای حملات بیولوژیکی است. کاخ سفید، سازمان ملل متحد و چندین کارشناس دانشگاهی و سیاستی نیز این موضوع را برجسته کرده و خواستار تحقیقات و مقررات بیشتر شده‌اند. همانطور که هوش مصنوعی قدرتمندتر و در دسترس‌تر می شود، نیاز به هوشیاری و آمادگی ضروری تر می‌شود.

بیشتر بخوانید

پرسش های بی پاسخ؛ جهان های موازی و بیگانگان

صحرا

اصل عدم قطعیت هایزنبرگ چیست؟

صحرا

اثرات نعناع روی سرعت واکنش و عملکرد مغز

پدرام

چرا گربه ها علف می خورند؟ همه چیز درباره علف گربه

پدرام

کمیاب ترین گربه‌های جهان

صحرا

چرا سگ ها علف می‌خورند؟ همه چیز درباره علف خوردن سگ ها

صحرا

ارسال دیدگاه