コラム

生成型AI大規模モデル管理政策と備案業務の詳細解説

馮超 森康晃 張夢伊
泰和泰(北京)法律事務所

 

2023年から2025年にかけてAI技術が急速に発展する中、生成型AI大規模モデル(以下「大規模モデル」)は各分野での応用が拡大し、経済・社会発展に新たな原動力を与えている。一方で、安全リスクやガバナンス上の課題が社会的関心の的となっている。
世界で初めて生成型AIの全過程規制体系を確立した中国は、「政策規範技術的防御備案による参入」という三位一体の仕組みにより、発展と安全のバランスを追求している。
本稿では、『生成型AIサービス管理暫定弁法』および北京市の最新政策を踏まえ、中国独自の備案プロセスと安全管理体系を体系的に解説する。

 

一. 大規模モデルの発展背景と現状

近年、深層学習や自然言語処理などの技術的突破により、大規模モデルは膨大なデータによる訓練を通じて強力な言語理解・生成能力を獲得し、テキスト生成、画像認識、音声処理などで優れた性能を発揮している。
応用範囲は研究分野にとどまらず、医療、教育、金融、エンターテインメントなど幅広い領域に拡大している。
2025年7月時点で、国家備案を通過した大規模モデルは全国で491件に達し、北京市が144件(全国の33%)で首位を占め、「単一都市で百モデル」の発展態勢を先行して実現している。
上海、広東、浙江なども続き、地域集積効果が顕著となっている。
これらのモデルは行政、教育、文化、クリエイティブ分野などに応用され、登録ユーザー数は31億を突破。大手モデルだけで12.04億人のユーザーを抱え、累計質問数は300億件を超えるなど、市場潜在力の大きさを示している。

 

二. 中国における政策体系

実務応用の中で、大規模モデルがもたらす安全リスクも顕著になっている。
虚偽情報の拡散、プライバシー漏洩、サイバー攻撃などが頻発し、社会の安定や個人の権益に深刻な脅威を与えている。
これを規範化し、国家安全や公共利益を守るため、中国は段階的に関連政策・法規を公布してきた。

・『中華人民共和国サイバーセキュリティ法』(201761日施行)
ネットワーク運営者に対する安全義務を定め、データ漏洩や改ざん防止を求める。大規模モデルに対しても、データ収集・処理・保存の各段階でデータ安全・個人情報保護を遵守することを要求。
・『中華人民共和国データセキュリティ法』(202191日施行)
データ処理者に対し安全保障措置を義務付ける。大規模モデルは合法・適法なデータを用いた訓練を行い、他者の知的財産権やプライバシー権を侵害してはならない。
・『中華人民共和国個人情報保護法』(2021111日施行)
個人情報の定義と処理ルールを明確化。大規模モデル提供者は個人情報保護規定を厳格に遵守し、違法収集や不正利用を禁止。
・『インターネット情報サービスアルゴリズム推薦管理規定』(202231日施行)
アルゴリズム推薦サービス提供者に責務を課し、アルゴリズム機構の審査、倫理審査、ユーザー権益保護の制度整備を要求。
・『インターネット情報サービス深度合成管理規定』(2023110日施行)
深度合成サービス提供者に対し、情報安全管理制度と技術措置の整備を義務付ける。
・『生成型AIサービス管理暫定弁法』(2023815日施行)
世界初の生成型AI専門法規であり、中国における中核的規制。サービス提供者にコンテンツ審査、データ安全、個人情報保護制度の確立を要求。
・『生成型AIサービス安全基本要求(TC260-003)』(2024229日施行)
2025年4月に国家標準《GB/T45654-2025》へ昇格。

さらに、北京市は大規模モデル数で全国首位に立ち、『北京市備案サービス管理工作方案』『備案プロセス最適化工作方案』を打ち出し、備案期間の短縮、プロセス最適化、産業資金支援、備案報奨、コンピューティングリソース券の提供などで産業発展を後押ししている。

 

三. 大規模モデルの備案業務の詳細

大規模モデルの備案は、その発展と応用を規範化し、国家法規と政策要件に適合させることを目的とする。
これにより、サービス提供者は安全管理制度・技術措置を整備し、安全性・信頼性を高めることができる。
さらに備案情報の公示は、ユーザーがサービス内容や利用リスクを理解し、権益を保護することにも資する。

備案プロセスは以下の4段階から成る:

1.企業自評:サービス提供者が自己評価を実施し、備案資料を準備。
2.属地初審:企業が所在地域の網信部門に資料を提出し、初審を受ける。
3.中央終審:属地当局の意見と資料を中央網信部門に送付、終審と技術安全評価を受ける。
4.公示:終審通過後、サービス提供者は備案情報を製品ページ等に公示し、正式に提供開始。

備案要件は以下の通り:

1モデル開発要件:訓練コーパスの合法性・規模・算力資源、アルゴリズム安全性など。
2サービス安全防護要件:登録認証方式、個人情報保護、違法コンテンツ遮断など。
3安全評価要件:訓練データ・生成内容・知的財産・営業秘密の包括的評価。

提出資料には『上线備案表』、安全評価報告、モデルサービス契約、コーパス注釈ルール、遮断キーワードリスト、評価テスト問題集などが含まれる。

 

四. 大規模モデルの安全管理と実務

備案後も、企業は長期的な安全管理を行う必要がある。主要リスクはイデオロギー、社会安全、ネットワーク安全、データ安全に及ぶ。

管理体制は「事前事中事後」のライフサイクル型

・事前審査:自社モデルや微調整モデルの備案審査、他モデルを利用するAI製品の登録審査。
・事中監督:上线後は常態化監督。中央と属地が技術測評・輿情モニタリングで動的管理。
   *テスト領域はイデオロギー(主権・民族・宗教・人権など)、
    ②違法犯罪(暴力・テロ・ポルノ・詐欺・薬物等)、
    ③財産・プライバシー(個人情報、口座情報など)、差別(人種・性別・健康・職業差別など)。
   *測評手法には思考連鎖、身分指定、質問すり抜け、越獄攻撃、逆誘導、指令漏洩などがある。
・事後処置:有害内容が発生した場合、当局は事情に応じて企業への警告、処罰、サービス停止・削除などを実施。

 

五. 結語と展望AIガバナンスは現在「深度定着期」に入っている。

政策解読と備案フローの詳細からは、中国政府が大規模モデル産業を健全かつ秩序立てて発展させようとする強い意志が見える。
同時に、企業・政府双方が安全リスクに対応する積極的な実践を行っていることも明らかである。
今後、技術進歩と政策改善により、大規模モデル産業はさらに広大な前景を迎えるだろう。
しかし同時に、潜在的リスクや課題を直視する必要がある。
すなわち「安全なくして革新なし」――合法的データ利用、効果的フィルタリング、明確な識別表示といった枠組みの下でこそ、大規模モデルは産業全般に力を与える真の潜在力を解放し、健全な発展を実現し、社会に福祉をもたらし、中国が世界AIガバナンス競争において引き続き先頭を走ることができるのである。

Contact

まずはお気軽にお問合せください

受付時間:平日9:00〜17:00 03-5281-5511 03-5281-5511
お問い合わせフォーム