OpenAI が GPT-5.5 の Bio Bug Bounty を発表 ── 生物学的リスクの脱獄探しに最大25,000ドル
OpenAIがGPT-5.5の安全性テストで豪快な札束を振っている。報酬は最大25,000ドル。生物兵器に関する危険情報を引き出せる「万能な脱獄手法」を見つけた者に支払われる。これは相当な自信の表れか、それとも想像以上にヤバい穴が潜んでいるのか。どちらにせよ、セキュリティ界隈が沸きそうな企画だ。
▸何が変わったのか
OpenAIが「GPT-5.5 Bio Bug Bounty」を立ち上げた。これはred-teaming challengeで、生物学的安全リスク(bio safety risks)に関するuniversal jailbreaksを見つけることが目的。報酬は最大$25,000。生物兵器の製造方法とか、そういうグレーゾーンをどこまで引き出せるか。本気で防御の穴を探しに来いという姿勢だ。
◈技術背景と意義
Red-teamingってのは、要するに「悪役役になってシステムを攻撃する」テストのこと。AIに「危険な生物学的情報を教えて」とあらゆる手で迫って、どこまで耐えられるか検証する。Universal jailbreakは、どんな防御もすり抜けちゃうような万能キーみたいなもの。これを事前に見つけておかないと、悪用されるリスクが高い。OpenAIは外部の目も借りて徹底的に穴を潰したいらしい。
▸こんな人・用途に
セキュリティ研究者やプロンプトエンジニア、AIの安全性に興味のある技術者向け。賞金目当てのハッカーも大歓迎だろう。
SOURCE: OpenAI (2026-04-23)