第1章 AI で変わる労働市場(第3節)

[目次]  [戻る]  [次へ]

第3節 AI活用に向けたリスキリングと教育

第2節では、労働者が従事する職業に応じたAIの影響の違いをより詳細に確認するとともに、労働者の属性(教育水準、性別、年齢)に応じて、AIによる職業の補完や代替の度合いがどの程度異なるのかについて確認した。特に、事務補助員の大半がAIに代替される可能性があること、AIに代替される職業からの転職先もAIに代替される職業である可能性があること、女性の方がAIの影響を大きく受ける可能性が高い職業に就いていること、AIの便益が教育水準の高い労働者に偏る可能性があることを確認した。本節では、これまでの確認を踏まえ、各国で進められているAI活用に向けたリスキリングの取組や、AIに代替されない能力を身に付けるために必要な教育について整理する26

(官民及び大学の協力によるAIリテラシー向上のためのリスキリングが必要)

これまでみてきたAI導入に伴う課題を解決し、AIの利活用を推進するには、AIを開発・維持管理するための専門家の育成のみならず、AI利活用に関する知識や能力である「AIリテラシー」(OECD (2023))の労働者全体での向上が必要となる。AIリテラシーとは、AIの技術面を批判的に評価し、AIを効果的に活用(communicate and collaborate)することができる能力であり、必ずしもAIモデルの開発に必要なスキルを指すのではなく、むしろAIを理解し、活用し、監視し、批判的に考察できるスキルとされている。

AIリテラシーは4段階のレベルに分かれており、第1レベルはAIの基本的な機能と日常生活におけるAIの使用方法に関する知識、第2レベルは様々な場面に応用することのできる能力、第3レベルはAIを実装し、評価することができる能力、第4レベルはアルゴリズムの開発に必要なデータを管理する能力と、AIの出力結果を批判的に考察する能力とされている。

このようなAIリテラシーの労働者全体での向上のために、各国において、官民及び大学の協力などによるリスキリングの取り組みが進められている(第1-3-1表)。

第1-3-1表 欧米におけるAIリテラシー向上に向けたリスキリング政策

欧州では民間部門におけるリスキリング政策が主な取組となっている。その中で特に大きな役割を果たしているのは、フィンランドにおいて開設された、専門家以外のAIリテラシーを強化するための無料オンラインコース「Elements of AI」のEU全加盟国への拡大である。同プログラムは、ヘルシンキ大学や民間企業がフィンランド政府の助成を受けて2018年に開設し、同国人口の1%を訓練するという当初の目標を数か月で達成した。この成功を受け、2019年に同国がEU議長国に就任したことを契機に、同プログラムは国外のEU加盟国民にも無償提供が開始され、2021年には全EU市民の1%にAIの知識を供与した。この政策の目的については、デジタル分野における欧州のリーダーシップを強化するために、それに必要なAIについての実用的な技能を深めることとされており、AIEUの経済成長と競争力を高めるとしている。同コースは、6段階に分かれており、AIとは何かという入門レベルから、アルゴリズムやニューラルネットワークの理解といった応用レベルまで、幅広くプログラムを提供している。

スペインでは、「復興及び強靭化施策(Recovery and Resilience Facility)」の一環で、欧州委員会からの投融資を活用し、2026年までに404億ユーロを投資する計画があり、特にAI等のデジタルスキルのトレーニングには、36億ユーロの投資を行う予定である。この背景には、デジタル技術の利活用のための基礎的な能力が不十分な労働者の割合が高いこととともに、専門的なデジタル技術の利活用能力を持つ労働者の不足が挙げられる。

イタリアでは、「National Industry 4.0 Plan」に掲げられている技術に関連するスキルの習得と定着を目的としたAI関連の企業研修に対して、税額控除(Italian Tax Credit on Training 4.0)を実施している。講師の人件費や、研修に係る旅費、宿泊費、研修に必要な備品等の諸経費が税額控除の対象となる。

アメリカでは、2021年に成立したAI訓練法(AI Training Act)に基づき、連邦政府職員がAIのメリットとリスクを理解し、連邦政府においてAIを倫理的に問題ない方法で使用するためのAI訓練プログラムが作成されている。背景には、政府によるAIへの投資が拡大する中で、それを管理する職員におけるAIの基礎技術への理解が不十分であり、政府としてAIに関して独立した意思決定ができなくなることへの懸念がある。具体的な研修プログラムの内容は第1-3-2表のとおりだが、プログラムは2年に一度更新され、プログラムの実施には数名分の人件費等で年間200万ドルの費用が必要とされている。

第1-3-2表 AI訓練法(アメリカ)で定められた研修プログラムの内容

AIの利活用を進めていく上で行政による監督規制の在り方は重要な課題である。そのために、行政の質を向上させるためのAIのユーザーとしてのリスキリングだけではなく、AIの監督者として、AIに対して法規制が必要かどうか、どのような種類の規制が必要なのかを判断するためにも、行政におけるAIリテラシーの重要性が増している。

(労働生産性の向上のためには管理職のAI管理能力が必要)

さらに、AIを活用し、労働生産性を高めていくためには、個々の労働者のAIリテラシーを高めるのみならず、企業全体としてAIの効果を最大化するよう管理能力を高めていく必要がある。

OECD (2023)は、管理職はAIが抱えるリスクとメリットを理解するとともに、AIと労働者の関係を管理し、どの仕事をAIが行い、どれを人間が行うのかを決める必要があると指摘している。さらに、人間の労働者に業務を任せる際に当該業務の目的を理解させる必要があることと同様に、AIに業務を任せる際にはAIに当該業務の目的を理解させる必要がある。つまり、目的に沿った処理が行われるようにAIを管理しなければならないことから、管理職にはアルゴリズムを管理できる技能を持つ必要があるとしている。

このように、AI活用に向けて、管理職にはAIをチームの一員として活用するための更なるリスキリングが必要と考えられる。

(年齢が高くなるにつれてリスキリングが更に必要)

OECDの「国際成人力調査(PIAAC)」の調査結果からは、主要国に共通して、年齢が上がるにつれてITを活用した問題解決能力27が低くなることがうかがえる。2012年に行われた同調査結果によると、ITを活用した問題解決能力は年齢に反比例して低下していることが分かる。また、ピーク世代と60~65歳の得点を比べると、ピークからの低下幅は、数的思考力よりもITを活用した問題解決能力で大きくなっている。このように、特にITスキルについては、年齢が高くなるにつれてリスキリングの必要性が高まると考えられる(第1-3-3図)。このことから、職業におけるAI利活用についてのリスキリングも年齢が高くなるにつれて必要性が高まると考えられる28

第1-3-3図 スキルと年齢の関係

AI活用能力とともに自律学習能力の向上も重要)

このようにAIに対応したリスキリングが各国において行われているが、AIに代替されない人間になるためには、AI活用能力とともに、自ら考え抜く力や、自分で問を立て自律して学習することのできる能力も重要である。

ここで、OECDPIAACを用いて、電子メールや表計算ソフト等のITを活用した問題解決能力の平均点の分布をみると、下位20%程度の国を除いて270~290点の範囲内に多くの国が分布していることから、現時点では成人のAIの活用能力の基礎となると考えられるITの活用能力については、先進国においては国ごとの大きな差はみられないと考えられる(第1-3-4図)。

第1-3-4図 ITを活用した問題解決能力の平均点の分布(16~65歳)
第1-3-5図 自律的学習に前向きな回答の割合

一方で、自律学習能力を評価する指標の一例として、OECDの「国際学力調査(PISA)」における、コロナ禍のように学校が再び休校になった場合に自律的に学習する自信があるか、という質問に対して前向きな回答をした生徒の割合をみると、同様に下位20%程度の国を除いて70%前後に多くの国が分布している。しかしながら、ITを活用した問題解決能力の平均点が最も高かった日本は40%と突出して低い割合となっており、日本は各国と比べて自律的に学習する能力が不足している可能性が懸念される(第1-3-5図)。

こうした能力を養成する上では初期段階における学校教育が重要であるが、日本では、「みんなと同じことができる」「言われたことを言われたとおりにできる」上質で均質な労働者の育成が高度経済成長期までの社会の要請として学校教育に求められてきた。その中で、「正解(知識)の暗記」の比重が大きくなり、「自ら課題を見つけ、それを解決する力」を育成するため、他者と協働し、自ら考え抜く学びが十分なされていないのではないかという指摘もある29

AIは与えられた課題を検討、調査することはできるが、課題そのものを設定することはできない。解決するべき課題、目標を定めることは人間にしかない能力であり、AIを活用する上で重要な要素となっている30。このような、課題設定といった人間固有の能力を向上させ、AIの能力を最大限に活用できる人材を育成するためにも、自律的な学習能力を向上させることが必要と考えられる31

コラム1:安全なAIの利活用に向けた法規制や国際ルール形成の動向

AIは職業を補完し、生産性を高めるなどのメリットも多くみられる一方で、サンプリングの偏りによって情報が歪曲されるなどのリスクも存在する。こうしたリスクに対応することを目的として、AIの利活用が基本的人権や著作権侵害につながらないよう、社会の安全性を確保しながら、AIを普及させていくための法整備や国際的なルール整備が進められている。

(1)欧州

欧州議会では、AI法(The Artificial Intelligence Act)が2024年3月に可決された。本法では、AIのリスクを4段階に分類しており、その分類ごとに規制方法を定めている。最もリスクが高い、「許容できないリスク(Unacceptable risk)」に分類されるAIは基本的な権利を侵害するAIであり、無意識的に集団の行動を歪め、意思決定を損なうことで重大な損害をもたらすことから、利用は禁止される。この中には、人種、性別32、政治的主張(political opinions)、宗教等に基づいた分類をする可能性のあるAIも含まれる。それ以外のAIに対しても、各リスクの段階に応じた規制が挙げられている(表1)。

表1 EU AI法におけるAIのリスク分類

また、本法では4段階のリスクレベルとは別に、生成AIについても「汎用AI」として、独立した規制対象として分類しており、透明性や著作権法の順守とともに、AIモデルの学習に使用したコンテンツについての情報の概要を作成、公表することが求められている。また、学習時に使用したモデルの計算能力が基準値を超える汎用AIは、システミック・リスク33をもたらし、EU市場に重大な影響を及ぼす可能性があることから、リスクを常に評価、軽減し、サイバーセキュリティー対策を講じることが求められている。本法は世界で初めてのAIに対する規制法であることから、今後の企業活動における国際ルールとしての基準になる可能性もある。

(2)アメリカ

EUAI法のようなリスクベースの包括的な法規制に対して、アメリカでは目的ベースで、既存の個別の法律が全体方針に沿って改正されていく方式を採っている。アメリカにおけるAI関連政策の動きは、トランプ政権時から加速し、2019年2月には「AIにおけるアメリカのリーダーシップの維持に関する大統領令」が発令され、5つの原則34を指針とする連邦政府の協調戦略「米国AIイニシアチブ」を通じて、AIの研究開発・展開におけるアメリカの科学的・技術的・経済的な主導的地位を維持・強化する方針が示された。2020年12月には「連邦政府における信頼できるAIの利用促進に関する大統領令」により、行政機関に対しては、行政管理予算局(OMB)の「AIアプリケーションの規制に関するガイダンス」に準拠したAIの利用が奨励されている。また、2021年1月には「2021年度国防授権法」の一部として「2020年国家AI構想法」が成立し、国家AI構想室を発足させた。同室は、アメリカの国家AI戦略を監督し、実施する役割を担っており、政府全体だけでなく、民間企業や学界等とのAI研究と政策立案における連邦政府の調整と協力の中心的なハブとしての役割を果たすこととなった。

バイデン政権では、「アルゴリズムによる差別(Algorithmic discrimination)」のない公平なAI利用を含む、国民の権利保護を前面に出したAIの開発・利用政策が打ち出されている。2022年10月に科学技術政策局(OSTP)は、アメリカ国民の権利を保護するために、AIを用いた自動化システムの設計、使用、配備の際の5つの原則35を示した「AI権利章典のための青写真」を発表した。また、2023年2月にバイデン大統領は、連邦政府機関に対し、AI等の技術者の多様性の欠如による、AIを含む新技術の設計と使用による偏見を絶ち、アルゴリズムによる差別から国民を保護するよう大統領令36で指示した。本大統領令には、アルゴリズムを作成する技術者側に人種の偏りが生じることにより、差別が助長されることを防ぐ狙いがあると考えられる37。さらに、同年10月には「AIの安全、安心、信頼できる開発と利用に関する大統領令」に署名し、AIの開発と利用を、8つの指導原則と優先事項に従って進め、安全かつ責任をもって管理することとした(表2)。

表2 「AIの安全、安心、信頼できる開発と利用に関する大統領令」の指導原則

(3)G7

こうした中で、G7においても国際的なルール形成に向けた動きがみられており、G7諸国は2023年5月の広島サミットにおいて、生成AIに関する国際的なルールの検討を行うため、「広島AIプロセス」を立ち上げ、同年10月に「AIに関するG7首脳声明」を発表した。首脳声明の中では、高度なAIシステム、特に、基盤モデル及び生成AIがもたらす革新的な機会と変革の可能性を強調するとともに、リスクを管理し、人間を中心に据えつつ、個人、社会、並びに法の支配や民主主義の価値を含む共有された原則を守る必要があるとしている。また、これらの課題に対応するためには、AIのための包摂的なガバナンスを形成することが必要であるとしている。

G7首脳声明と同時に、先進的なAIの開発者向けルールである「AI開発者向け国際指針及び国際行動規範」も公表された。同規範では、AIの能力の限界や適切・不適切な利用領域を公表すること、サイバーセキュリティー等安全対策に投資すること、電子透かし等AIが生成した文章や画像であることを識別できる技術を開発・導入すること、個人情報や知的財産を保護することなど12項目が盛り込まれた38(表3)。

さらに、2024年5月のOECD閣僚理事会において、49か国・地域の参加を得て、広島AIプロセスの精神に賛同する国々の自発的な枠組みである「広島AIプロセス フレンズグループ」を立ち上げ、国際指針等の実践に取り組み、世界中の人々が安全、安心で信頼できるAIを利用できるよう協力を進めていくこととし、同年6月のG7プーリア・サミットでもその重要性が確認された。

また、同閣僚理事会において、AIに関するOECD原則の改訂版が採択され、特に生成AIの出現等、近年のAI技術の進歩を踏まえて原則が更新された。改訂版の原則は、偽情報の発信や意図された目的以外の使用をリスクとして捉えるとともに、プライバシー、知的財産権、安全性、情報の完全性等の課題に今まで以上に踏み込んで対応するものとなっている39

表3 AI開発者向け国際指針及び国際行動規範(広島AIプロセス)

26 なお、Brollo et al. (2024)は、失業保険の拡充は、AIが労働者に与える負の影響を緩和し、離職した労働者が自分のスキルに合った仕事を見つけられるようにすることで、AIの労働者に対する負の影響を緩和しうることを指摘している。
27 PIAACにおけるITを活用した問題解決能力とは、情報を獲得・評価し、他者とコミュニケーションをし、実際にタスクを遂行するために、デジタル技術、コミュニケーションツール及びネットワークを活用する能力である。
28 なお、Milanez (2023)は、AIの導入に伴って生じる業務の変化と、それに対応したスキルニーズの変化に関して、特に高齢者層が新たなデジタルスキルの獲得に困難を抱えていることを指摘している。Milanez (2023)では、オーストリアのある企業の経営者が、高齢の現従業員がもつ現在のスキルとデータ分析や複雑な問題解決等のAIの導入に伴って新たに必要とされるスキルとのギャップが大きすぎて埋めることはできないとみなした結果、必要なスキルを身に着けるためのリスキリングの機会を設けることなく、必要なスキルを持つ若年労働者を高い賃金で新規採用することとした事例が紹介されている。
29 中央教育審議会(2021)
30 鶴(2021)は、AIが汎用技術として普及する可能性がある社会において必要なスキル・能力として「課題・目標設定力」「社会的認知能力」「直観力・常識」「未知の問題を解く能力」としている。「社会的認知能力」については、集団の構成員の感情を理解する能力であるとし、「直観力・常識」は、一目で物事の本質を見極めるとともに、何が当たり前で何が当たり前でないかを判断する能力であるとしている。
31 中央教育審議会(2021)では、「令和の日本型学校教育」として、予測困難な時代においては、目の前の事象から解決すべき課題を見いだし、主体的に考え、多様な立場の者が協働的に議論し、納得解を生み出す能力が必要としている。
32 日本では、第5次男女共同参画基本計画(令和2年12月25日閣議決定)において、AI が過去を学習した上で解を導くに当たって、これまでの男女の固定的な性別役割分担意識や性差に関する無意識の思い込み(アンコンシャス・バイアス)を強める方向で使われることの無いよう、男女が共に開発や利用に参画し、多様な視点でバイアスを改善することが重要であるとの決定を行っている。
33 システミック・リスクとは、委員会が定めたAIの能力やユーザー数等の基準を考慮した結果、高い性能を有するとともに、EU市場に対する影響力が大きいと判断された、先端の汎用AIが持つ特有のリスクであり、公衆衛生、安全、公共の治安、基本的権利等の社会全体に対して広範な悪影響を引き起こすリスクを指す。
34 AI研究開発への投資、AIリソースの解放、AIガバナンス基準の設定、AI人材の育成、国際的関与とAIの優位性の保護。AIリソースの解放とは、連邦政府が保持しているデータ等を、セキュリティやプライバシー等の保護を維持しつつ、研究者がアクセスしやすい環境を整備することであり、より質の高いAI研究を活発化させることが目的である。
35 安全で効果的なシステム、アルゴリズムによる差別からの保護、データプライバシー、システムの影響を受ける人への通知と説明、代替選択肢。
36 「連邦政府を通じた人種的公平性の更なる推進と恵まれないコミュニティへの支援に関する大統領令(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through The Federal Government)」
37 NAIRRTF(National Artificial Intelligence Research Resource Task Force)によれば、2020年に授与されたアメリカ在住のAI博士号のうち、非ヒスパニック系白人が51%、アジア系が30%、ヒスパニック系が7%(アメリカ人口の18.9%)、黒人またはアフリカ系アメリカ人が2%(同人口の13.6%)であり、2010年と比較して、ヒスパニック系および黒人・アフリカ系アメリカ人の学生に授与されるAI博士号の割合は減少している。同様に、AI分野における性別の割合は過去10年間ほとんど変化しておらず、ある試算によると、2020年の北米におけるAI博士号取得者とコンピュータ・サイエンス博士号取得者のうち、女性が占める割合はともに20%程度である。報告書では、このような学生や卒業生の多様性の欠如は、労働力における多様性の欠如を生み、システム的偏見を永続させ、AIイノベーションに取り込まれるアイデアの幅を制限するAIツールやアプローチの開発に寄与しうるとしている(NAIRRTF (2023))。
38 その後、同年12月のG7デジタル・技術大臣会合において、AIの利用者向け指針も含めた包括的な政策枠組みを策定、公表した。「AI開発者向け国際指針及び国際行動規範」の11項目に1項目が追加され、偽情報の拡散等のリスクに着目し、利用者のリテラシー向上や脆弱性検知への協力、情報共有等を求めるものになっている。この声明では、国際指針の策定に加えて、G7以外の各国への波及、企業等によるモニタリングツール導入の取組といった、今後の作業計画も策定している。また、2024年にも設立予定のGPAIGlobal Partnership on Artificial Intelligence)東京センターを含む、各国政府や企業による生成AIに関連した偽情報対策のプロジェクトへの協力でも合意した。
39 OECD (2024)

[目次]  [戻る]  [次へ]