OpenAI، سازمان تحقیقاتی پشت مدل زبانی قدرتمند GPT-4، مطالعه جدیدی را منتشر کرده است. که امکان استفاده از هوش مصنوعی را برای کمک به ایجاد تهدیدات بیولوژیکی بررسی میکند. این مطالعه که هم متخصصان زیستشناسی و هم دانشآموزان را شامل میشد، نشان داد که GPT-4 در مقایسه با منابع موجود در اینترنت، «حداکثر افزایش خفیفی» در دقت ایجاد تهدیدات بیولوژیکی ایجاد میکند.
این مطالعه بخشی از چارچوب آمادگی OpenAI است که هدف آن ارزیابی و کاهش خطرات بالقوه قابلیتهای هوش مصنوعی پیشرفته است. بهویژه آنهایی که میتوانند «خطرات مرزی» ایجاد کنند. تهدیدات غیر متعارفی که جامعه کنونی آن را به خوبی درک یا پیشبینی نکرده است. یکی از این خطرات مرزی، توانایی سیستمهای هوش مصنوعی، مانند مدلهای زبان بزرگ (LLM) برای کمک به عوامل مخرب در توسعه و اجرای حملات بیولوژیکی، مانند سنتز پاتوژنها یا سموم است.
روش شناسی و نتایج مطالعه OpenAI
برای ارزیابی این خطر، محققان یک ارزیابی انسانی با 100 شرکتکننده، متشکل از 50 متخصص زیستشناسی با مدرک دکترا و تجربه آزمایشگاه حرفهای و 50 شرکتکننده در سطح دانشجو، با حداقل یک دوره دانشگاهی در زیستشناسی، انجام دادند. هر گروه از شرکت کنندگان به طور تصادفی به یک گروه کنترل که فقط به اینترنت دسترسی داشتند. یا یک گروه درمانی که علاوه بر اینترنت به GPT-4 دسترسی داشتند، تقسیم شدند. سپس از هر شرکتکننده خواسته شد تا مجموعهای از وظایف را که جنبههای فرآیند سرتاسری برای ایجاد تهدید بیولوژیکی را پوشش میدهد، مانند ایدهپردازی، اکتساب، بزرگنمایی، فرمولبندی و انتشار را تکمیل کند.
محققان عملکرد شرکتکنندگان را در پنج معیار اندازهگیری کردند: دقت، کامل بودن، نوآوری، زمان صرف شده و دشواری خود ارزیابی. آنها دریافتند که GPT-4 عملکرد شرکت کنندگان را در هیچ یک از معیارها به طور قابل توجهی بهبود نمیبخشد. به جز افزایش جزئی در دقت برای گروهی در سطح دانش آموز. محققان همچنین خاطرنشان کردند که GPT-4 اغلب پاسخهای اشتباه یا گمراه کنندهای ایجاد میکند که میتواند فرآیند ایجاد تهدید بیولوژیکی را مختل کند.
بیشتر بخوانید: هوش مصنوعی و تاثیر آن بر مشاغل آینده
آیا هوش مصنوعی خطرناک است؟
محققان به این نتیجه رسیدند که نسل فعلی LLM ها، مانند GPT-4، در مقایسه با منابع موجود در اینترنت، خطر قابل توجهی برای ایجاد تهدید بیولوژیکی ندارد. با این حال، آنها هشدار دادند که این یافته قطعی نیست و LLM های آینده میتوانند توانمندتر و خطرناکتر شوند. آنها همچنین بر نیاز به تحقیقات مستمر و مشورت در جامعه در مورد این موضوع و همچنین توسعه روشهای ارزیابی بهبودیافته و دستورالعملهای اخلاقی برای خطرات ایمنی مبتنی بر هوش مصنوعی تأکید کردند.
OpenAI تنها سازمانی نیست که نگران سوء استفاده احتمالی از هوش مصنوعی برای حملات بیولوژیکی است. کاخ سفید، سازمان ملل متحد و چندین کارشناس دانشگاهی و سیاستی نیز این موضوع را برجسته کرده و خواستار تحقیقات و مقررات بیشتر شدهاند. همانطور که هوش مصنوعی قدرتمندتر و در دسترستر می شود، نیاز به هوشیاری و آمادگی ضروری تر میشود.