第1章 AI で変わる労働市場(第3節)
第3節 AI活用に向けたリスキリングと教育
第2節では、労働者が従事する職業に応じたAIの影響の違いをより詳細に確認するとともに、労働者の属性(教育水準、性別、年齢)に応じて、AIによる職業の補完や代替の度合いがどの程度異なるのかについて確認した。特に、事務補助員の大半がAIに代替される可能性があること、AIに代替される職業からの転職先もAIに代替される職業である可能性があること、女性の方がAIの影響を大きく受ける可能性が高い職業に就いていること、AIの便益が教育水準の高い労働者に偏る可能性があることを確認した。本節では、これまでの確認を踏まえ、各国で進められているAI活用に向けたリスキリングの取組や、AIに代替されない能力を身に付けるために必要な教育について整理する26。
(官民及び大学の協力によるAIリテラシー向上のためのリスキリングが必要)
これまでみてきたAI導入に伴う課題を解決し、AIの利活用を推進するには、AIを開発・維持管理するための専門家の育成のみならず、AI利活用に関する知識や能力である「AIリテラシー」(OECD (2023))の労働者全体での向上が必要となる。AIリテラシーとは、AIの技術面を批判的に評価し、AIを効果的に活用(communicate and collaborate)することができる能力であり、必ずしもAIモデルの開発に必要なスキルを指すのではなく、むしろAIを理解し、活用し、監視し、批判的に考察できるスキルとされている。
AIリテラシーは4段階のレベルに分かれており、第1レベルはAIの基本的な機能と日常生活におけるAIの使用方法に関する知識、第2レベルは様々な場面に応用することのできる能力、第3レベルはAIを実装し、評価することができる能力、第4レベルはアルゴリズムの開発に必要なデータを管理する能力と、AIの出力結果を批判的に考察する能力とされている。
このようなAIリテラシーの労働者全体での向上のために、各国において、官民及び大学の協力などによるリスキリングの取り組みが進められている(第1-3-1表)。
欧州では民間部門におけるリスキリング政策が主な取組となっている。その中で特に大きな役割を果たしているのは、フィンランドにおいて開設された、専門家以外のAIリテラシーを強化するための無料オンラインコース「Elements of AI」のEU全加盟国への拡大である。同プログラムは、ヘルシンキ大学や民間企業がフィンランド政府の助成を受けて2018年に開設し、同国人口の1%を訓練するという当初の目標を数か月で達成した。この成功を受け、2019年に同国がEU議長国に就任したことを契機に、同プログラムは国外のEU加盟国民にも無償提供が開始され、2021年には全EU市民の1%にAIの知識を供与した。この政策の目的については、デジタル分野における欧州のリーダーシップを強化するために、それに必要なAIについての実用的な技能を深めることとされており、AIはEUの経済成長と競争力を高めるとしている。同コースは、6段階に分かれており、AIとは何かという入門レベルから、アルゴリズムやニューラルネットワークの理解といった応用レベルまで、幅広くプログラムを提供している。
スペインでは、「復興及び強靭化施策(Recovery and Resilience Facility)」の一環で、欧州委員会からの投融資を活用し、2026年までに404億ユーロを投資する計画があり、特にAI等のデジタルスキルのトレーニングには、36億ユーロの投資を行う予定である。この背景には、デジタル技術の利活用のための基礎的な能力が不十分な労働者の割合が高いこととともに、専門的なデジタル技術の利活用能力を持つ労働者の不足が挙げられる。
イタリアでは、「National Industry 4.0 Plan」に掲げられている技術に関連するスキルの習得と定着を目的としたAI関連の企業研修に対して、税額控除(Italian Tax Credit on Training 4.0)を実施している。講師の人件費や、研修に係る旅費、宿泊費、研修に必要な備品等の諸経費が税額控除の対象となる。
アメリカでは、2021年に成立したAI訓練法(AI Training Act)に基づき、連邦政府職員がAIのメリットとリスクを理解し、連邦政府においてAIを倫理的に問題ない方法で使用するためのAI訓練プログラムが作成されている。背景には、政府によるAIへの投資が拡大する中で、それを管理する職員におけるAIの基礎技術への理解が不十分であり、政府としてAIに関して独立した意思決定ができなくなることへの懸念がある。具体的な研修プログラムの内容は第1-3-2表のとおりだが、プログラムは2年に一度更新され、プログラムの実施には数名分の人件費等で年間200万ドルの費用が必要とされている。
AIの利活用を進めていく上で行政による監督規制の在り方は重要な課題である。そのために、行政の質を向上させるためのAIのユーザーとしてのリスキリングだけではなく、AIの監督者として、AIに対して法規制が必要かどうか、どのような種類の規制が必要なのかを判断するためにも、行政におけるAIリテラシーの重要性が増している。
(労働生産性の向上のためには管理職のAI管理能力が必要)
さらに、AIを活用し、労働生産性を高めていくためには、個々の労働者のAIリテラシーを高めるのみならず、企業全体としてAIの効果を最大化するよう管理能力を高めていく必要がある。
OECD (2023)は、管理職はAIが抱えるリスクとメリットを理解するとともに、AIと労働者の関係を管理し、どの仕事をAIが行い、どれを人間が行うのかを決める必要があると指摘している。さらに、人間の労働者に業務を任せる際に当該業務の目的を理解させる必要があることと同様に、AIに業務を任せる際にはAIに当該業務の目的を理解させる必要がある。つまり、目的に沿った処理が行われるようにAIを管理しなければならないことから、管理職にはアルゴリズムを管理できる技能を持つ必要があるとしている。
このように、AI活用に向けて、管理職にはAIをチームの一員として活用するための更なるリスキリングが必要と考えられる。
(年齢が高くなるにつれてリスキリングが更に必要)
OECDの「国際成人力調査(PIAAC)」の調査結果からは、主要国に共通して、年齢が上がるにつれてITを活用した問題解決能力27が低くなることがうかがえる。2012年に行われた同調査結果によると、ITを活用した問題解決能力は年齢に反比例して低下していることが分かる。また、ピーク世代と60~65歳の得点を比べると、ピークからの低下幅は、数的思考力よりもITを活用した問題解決能力で大きくなっている。このように、特にITスキルについては、年齢が高くなるにつれてリスキリングの必要性が高まると考えられる(第1-3-3図)。このことから、職業におけるAI利活用についてのリスキリングも年齢が高くなるにつれて必要性が高まると考えられる28。
(AI活用能力とともに自律学習能力の向上も重要)
このようにAIに対応したリスキリングが各国において行われているが、AIに代替されない人間になるためには、AI活用能力とともに、自ら考え抜く力や、自分で問を立て自律して学習することのできる能力も重要である。
ここで、OECDのPIAACを用いて、電子メールや表計算ソフト等のITを活用した問題解決能力の平均点の分布をみると、下位20%程度の国を除いて270~290点の範囲内に多くの国が分布していることから、現時点では成人のAIの活用能力の基礎となると考えられるITの活用能力については、先進国においては国ごとの大きな差はみられないと考えられる(第1-3-4図)。
一方で、自律学習能力を評価する指標の一例として、OECDの「国際学力調査(PISA)」における、コロナ禍のように学校が再び休校になった場合に自律的に学習する自信があるか、という質問に対して前向きな回答をした生徒の割合をみると、同様に下位20%程度の国を除いて70%前後に多くの国が分布している。しかしながら、ITを活用した問題解決能力の平均点が最も高かった日本は40%と突出して低い割合となっており、日本は各国と比べて自律的に学習する能力が不足している可能性が懸念される(第1-3-5図)。
こうした能力を養成する上では初期段階における学校教育が重要であるが、日本では、「みんなと同じことができる」「言われたことを言われたとおりにできる」上質で均質な労働者の育成が高度経済成長期までの社会の要請として学校教育に求められてきた。その中で、「正解(知識)の暗記」の比重が大きくなり、「自ら課題を見つけ、それを解決する力」を育成するため、他者と協働し、自ら考え抜く学びが十分なされていないのではないかという指摘もある29。
AIは与えられた課題を検討、調査することはできるが、課題そのものを設定することはできない。解決するべき課題、目標を定めることは人間にしかない能力であり、AIを活用する上で重要な要素となっている30。このような、課題設定といった人間固有の能力を向上させ、AIの能力を最大限に活用できる人材を育成するためにも、自律的な学習能力を向上させることが必要と考えられる31。
コラム1:安全なAIの利活用に向けた法規制や国際ルール形成の動向
AIは職業を補完し、生産性を高めるなどのメリットも多くみられる一方で、サンプリングの偏りによって情報が歪曲されるなどのリスクも存在する。こうしたリスクに対応することを目的として、AIの利活用が基本的人権や著作権侵害につながらないよう、社会の安全性を確保しながら、AIを普及させていくための法整備や国際的なルール整備が進められている。
(1)欧州
欧州議会では、AI法(The Artificial Intelligence Act)が2024年3月に可決された。本法では、AIのリスクを4段階に分類しており、その分類ごとに規制方法を定めている。最もリスクが高い、「許容できないリスク(Unacceptable risk)」に分類されるAIは基本的な権利を侵害するAIであり、無意識的に集団の行動を歪め、意思決定を損なうことで重大な損害をもたらすことから、利用は禁止される。この中には、人種、性別32、政治的主張(political opinions)、宗教等に基づいた分類をする可能性のあるAIも含まれる。それ以外のAIに対しても、各リスクの段階に応じた規制が挙げられている(表1)。
また、本法では4段階のリスクレベルとは別に、生成AIについても「汎用AI」として、独立した規制対象として分類しており、透明性や著作権法の順守とともに、AIモデルの学習に使用したコンテンツについての情報の概要を作成、公表することが求められている。また、学習時に使用したモデルの計算能力が基準値を超える汎用AIは、システミック・リスク33をもたらし、EU市場に重大な影響を及ぼす可能性があることから、リスクを常に評価、軽減し、サイバーセキュリティー対策を講じることが求められている。本法は世界で初めてのAIに対する規制法であることから、今後の企業活動における国際ルールとしての基準になる可能性もある。
(2)アメリカ
EUのAI法のようなリスクベースの包括的な法規制に対して、アメリカでは目的ベースで、既存の個別の法律が全体方針に沿って改正されていく方式を採っている。アメリカにおけるAI関連政策の動きは、トランプ政権時から加速し、2019年2月には「AIにおけるアメリカのリーダーシップの維持に関する大統領令」が発令され、5つの原則34を指針とする連邦政府の協調戦略「米国AIイニシアチブ」を通じて、AIの研究開発・展開におけるアメリカの科学的・技術的・経済的な主導的地位を維持・強化する方針が示された。2020年12月には「連邦政府における信頼できるAIの利用促進に関する大統領令」により、行政機関に対しては、行政管理予算局(OMB)の「AIアプリケーションの規制に関するガイダンス」に準拠したAIの利用が奨励されている。また、2021年1月には「2021年度国防授権法」の一部として「2020年国家AI構想法」が成立し、国家AI構想室を発足させた。同室は、アメリカの国家AI戦略を監督し、実施する役割を担っており、政府全体だけでなく、民間企業や学界等とのAI研究と政策立案における連邦政府の調整と協力の中心的なハブとしての役割を果たすこととなった。
バイデン政権では、「アルゴリズムによる差別(Algorithmic discrimination)」のない公平なAI利用を含む、国民の権利保護を前面に出したAIの開発・利用政策が打ち出されている。2022年10月に科学技術政策局(OSTP)は、アメリカ国民の権利を保護するために、AIを用いた自動化システムの設計、使用、配備の際の5つの原則35を示した「AI権利章典のための青写真」を発表した。また、2023年2月にバイデン大統領は、連邦政府機関に対し、AI等の技術者の多様性の欠如による、AIを含む新技術の設計と使用による偏見を絶ち、アルゴリズムによる差別から国民を保護するよう大統領令36で指示した。本大統領令には、アルゴリズムを作成する技術者側に人種の偏りが生じることにより、差別が助長されることを防ぐ狙いがあると考えられる37。さらに、同年10月には「AIの安全、安心、信頼できる開発と利用に関する大統領令」に署名し、AIの開発と利用を、8つの指導原則と優先事項に従って進め、安全かつ責任をもって管理することとした(表2)。
(3)G7
こうした中で、G7においても国際的なルール形成に向けた動きがみられており、G7諸国は2023年5月の広島サミットにおいて、生成AIに関する国際的なルールの検討を行うため、「広島AIプロセス」を立ち上げ、同年10月に「AIに関するG7首脳声明」を発表した。首脳声明の中では、高度なAIシステム、特に、基盤モデル及び生成AIがもたらす革新的な機会と変革の可能性を強調するとともに、リスクを管理し、人間を中心に据えつつ、個人、社会、並びに法の支配や民主主義の価値を含む共有された原則を守る必要があるとしている。また、これらの課題に対応するためには、AIのための包摂的なガバナンスを形成することが必要であるとしている。
G7首脳声明と同時に、先進的なAIの開発者向けルールである「AI開発者向け国際指針及び国際行動規範」も公表された。同規範では、AIの能力の限界や適切・不適切な利用領域を公表すること、サイバーセキュリティー等安全対策に投資すること、電子透かし等AIが生成した文章や画像であることを識別できる技術を開発・導入すること、個人情報や知的財産を保護することなど12項目が盛り込まれた38(表3)。
さらに、2024年5月のOECD閣僚理事会において、49か国・地域の参加を得て、広島AIプロセスの精神に賛同する国々の自発的な枠組みである「広島AIプロセス フレンズグループ」を立ち上げ、国際指針等の実践に取り組み、世界中の人々が安全、安心で信頼できるAIを利用できるよう協力を進めていくこととし、同年6月のG7プーリア・サミットでもその重要性が確認された。
また、同閣僚理事会において、AIに関するOECD原則の改訂版が採択され、特に生成AIの出現等、近年のAI技術の進歩を踏まえて原則が更新された。改訂版の原則は、偽情報の発信や意図された目的以外の使用をリスクとして捉えるとともに、プライバシー、知的財産権、安全性、情報の完全性等の課題に今まで以上に踏み込んで対応するものとなっている39。