OpenAIとMicrosoftの提携再改定を示すヘッダー画像

OpenAIとMicrosoftの独占がゆるむ。ChatGPTとCopilotの提供ルートで何が変わるか

ChatGPTを使うとき、「どのコンピューターで動いているか」を考える人はほぼいないと思います。画面が開いて返事が返ってくれば十分。それはまったく自然です。でも、企業がChatGPTを業務に組み込もうとする場面では、「どのクラウドを経由して使えるか」が話の起点になります。自社のシステムがどこで動いているか、セキュリティポリシーがどのサービスに対応しているか。そういった事情が、導入できるかどうかの判断を左右するからです。 その構造が、今週変わりました。 2026年4月27日発表。OpenAI製品がAzure以外のクラウド経由でも提供可能になった。 「Azure専用」から「どのクラウドでも」へ Microsoftは2026年4月27日、OpenAIとの提携契約を改定したと公式ブログで発表しました。 変更のポイントは一点です。これまでOpenAIの製品は、Microsoft Azureというクラウドを通じた提供が原則でした。クラウドは、企業や開発者がAIを動かすための巨大な貸しコンピューターのようなものです。今回の改定で、OpenAIはすべての製品を、任意のクラウドプロバイダー経由で顧客に届けられるようになりました。 MicrosoftはOpenAIの主要クラウドパートナーとして残ります。Azure上での提供は引き続き優先されますが、Microsoftが対応できない機能については例外が認められる形です。「独占」から「優先」へ。改定後の関係は、そう整理できます。 収益の面でも変化があります。MicrosoftからOpenAIへの収益分配は終了します。一方、OpenAIからMicrosoftへの収益分配は2030年まで続く予定で、総額に上限が設けられています。技術ライセンスは2032年まで有効ですが、こちらも独占ではなく非独占の形になっています。 なぜ今、この改定が成立したのか Associated Pressの報道によると、OpenAIはすでにAmazon、Google、Oracleといった複数のクラウド事業者との提携を進めていました。今回の改定は、その方向性を法的に整理したものです。 特にAmazonとの提携が焦点でした。TechCrunchの報道では、OpenAIとAmazonの間には最大500億ドル規模の提携が進んでおり、AWS Bedrockというサービス上でOpenAIのモデルを使えるようにする計画と、AIエージェント向けの基盤技術を共同開発する内容が含まれていたとされています。金額だけを見ても、OpenAIがクラウド容量の確保を事業の中心課題として扱っていることがわかります。 今回の契約改定が成立したことで、このAmazonとの大型提携をめぐる法的な不確実性が解消された、というのがTechCrunchの整理です。OpenAIには、Amazonとの提携を進めるためにMicrosoftとの関係を整理する事情がありました。 改定前後のOpenAI製品の提供ルート。Azure優先は維持しつつ、他クラウドへの提供が可能になった。 ChatGPTの画面は変わらない。変わるのは選べる幅 個人でChatGPTを使っている人が、今日から何かを設定し直す話ではありません。料金が変わるわけでも、機能が増えるわけでもありません。 変わるのは、企業が「どのAIを、どのシステム基盤の上で使うか」を選ぶときの選択肢です。Microsoft 365 Copilotを中心に使う会社は、引き続きMicrosoftの仕組みの中でOpenAI技術に触れます。一方で、AWS中心の会社がChatGPT系の機能を業務システムに組み込みたい場合、Azure前提ではない選択肢が見えてきます。CopilotとChatGPTが別々の入口から同じ職場に入ってくる。そんな構図です。 社内のシステムをAWSで運用している会社が「ChatGPTをAWS経由で使いたい」と考えても、これまでは制度的に難しい面がありました。今後はAWS Bedrock上でOpenAIのモデルを使えるようになる予定です。ただし、具体的なサービス提供は「今後数週間」とされており、今日から全面提供というわけではありません。 ちょっと気になるのは、日本の中堅・中小企業がこの変化をどう受け止めるかです。国内ではNECとAnthropicの提携のように、AI導入を後押しする動きが続いています(NECがAnthropicと組んで日本の企業向けAIを展開する動き)。今回の改定で「どのクラウドを前提にするか」を見直す会社が出てくるとしたら、それは2026年後半から2027年にかけての話になりそうです。 「どのAIが賢いか」だけでなく「自社システムに乗せられるか」「サポート体制が整っているか」で選ぶ場面が増える流れは、今回の改定で加速します。 「提携解消」ではない。MicrosoftはOpenAIの最重要パートナーのまま MicrosoftはOpenAIへの巨額投資から始まり、Azure基盤でChatGPTの急成長を支えてきた会社です。今回の改定は、両社の関係を解消するものではありません。独占色を弱めた再設計です。OpenAIがAzure一社への依存を段階的に分散しながら、Microsoftとの関係を維持する形に整えたと見るのが正確です。 2032年まで続く技術ライセンス、2030年まで続く収益分配。この二つを見ても、両社が向こう数年の重要なパートナーであることに変わりはありません。変わったのは「独占」という言葉がなくなったことと、それに付随して企業の選択肢の幅が広がった、その二点です。 参考 Microsoft Official Blog - The next phase of the Microsoft-OpenAI partnership (https://blogs.microsoft.com/blog/2026/04/27/the-next-phase-of-the-microsoft-openai-partnership/) TechCrunch - OpenAI ends Microsoft legal peril over its $50B Amazon deal (https://techcrunch.com/2026/04/27/openai-ends-microsoft-legal-peril-over-its-50b-amazon-deal/) Associated Press - Microsoft cuts OpenAI revenue share in a fresh step to loosen their AI alliance (https://apnews.com/article/2a44fa94da6913074f97f916332b33f6) ITmedia NEWS - OpenAIとMicrosoft、提携契約を再改定 OpenAIはAWSなど任意のクラウドで製品提供可能に (https://www.itmedia.co.jp/news/articles/2604/28/news050.html) Impress Watch - MSとOpenAI、独占的ではない"柔軟"な提携へ移行 (https://www.watch.impress.co.jp/docs/news/2105119.html)

April 28, 2026 · 1 min · AI Navi JP編集部
Google スプレッドシートのFill with Gemini機能のヘッダー画像

Google スプレッドシートにGeminiが入る。何が変わり、誰が使えるか

表計算の仕事で一番時間がかかるのは、関数でも分析でもなく「とにかくセルを埋める作業」だったりします。顧客リストの業種分類、問い合わせへの返信案、商品説明の項目入力——似たパターンが延々と続くのに、手を動かし続けなければならないあの時間。その部分をGeminiが引き受ける機能「Fill with Gemini」が、Google スプレッドシートに加わりました。 入力済みデータの文脈に合わせて、残りを埋める Google Workspace Updatesブログで2026年4月22日に公開された情報によると、Fill with Geminiは入力済みのデータや自然文の指示から文脈を推測して、空欄のセルに情報を自動入力する機能です。 これまでのオートフィルは、連番・日付・同じ値のコピーなど、パターンが決まった値を伸ばすものでした。Fill with Geminiはその先へ進んで、「入力された内容の意味を理解したうえで適切な値を補完する」という設計になっています。 Googleが95人の参加者を対象に実施した100セル入力タスクの比較があります。手入力と比べて最大9倍速く完了できたとしています。9倍という数字は作業内容や確認時間によって変わりますが、分類や補完が中心の繰り返し入力では、体感できる時間の差が出てくるはずです。 2種類の操作と、何ができるか 操作の入り口は大きく2通りあります。 ひとつ目は、列に少なくとも1つ入力済みのセルがある状態でドラッグする方法です。既存の内容をGeminiが参照して、残りのセルを文脈に合わせて埋めます。企業名が1件入っている列で操作すると、業種や所在地を推測して入力するような動作です。 ふたつ目は、空のセルを複数選んで自然文で指示する方法です。「この列に問い合わせへの返信案を入れて」「商品の特徴を50文字以内で入れて」のようにテキストで指定すると、Geminiが内容を生成します。 Googleが挙げている対応ケースは、情報の抽出、データの分類、返信案の作成、商品情報の入力など。関数の書き方を知らなくても使えるのが特徴です。表の空欄を埋める作業を、指示ベースで代行してもらえる設計になっています。 なお、同じ日にGoogleはGemini in Sheetsで表全体を自然文から作成・編集する機能も発表しています。数式、ピボットテーブル、グラフ、最適化問題まで自然文で操作できるとしていて、Fill with Geminiと合わせると、Sheetsに関わる作業の幅は大きく変わります。 対象プランと展開状況、日本語対応の現状 便利そうに見えますが、今すぐ全員が日本語で使えるわけではありません。 言語と地域については、GoogleヘルプにFill with Geminiの列補完機能は現時点で米国・英語のみ対応と明記されています。日本語環境への対応時期は、2026年4月27日時点では公式に示されていません。 対象プランはBusiness Standard、Business Plus、Enterprise Standard、Enterprise Plus、AI Expanded Access、AI Ultra Access、Google AI Pro for Education、Google AI Pro、Google AI Ultraのいずれかです。個人向けの無料プランやBusiness Starterは対象外です。 展開スケジュールについては、Rapid Releaseドメインへの段階展開が2026年4月22日開始で最大15日間、Scheduled Releaseドメインは2026年5月6日開始で最大15日間です。対象プランを使っていても、表示されるタイミングは組織の設定次第です。 加えて、管理者のスマート機能設定も関係します。Google Workspaceのスマート機能が管理者によって無効化されている組織では、この機能は表示されません。会社の環境で使う場合は、IT管理者への確認が必要なケースがあります。 7月15日まではプロモーション期間、その後は上限が変わる 2026年7月15日まではプロモーション期間として、Google SheetsのAI機能の利用上限が引き上げられた状態で提供されます。以降はユーザー単位の利用上限に切り替わる予定です。 Gemini Advanced(Google AI Ultraプラン)を日常的に使っているわたしとしては、GeminiがGoogleのサービス内データを参照するときの精度が上がってきていると感じています。Sheetsのデータと直接連携したとき、どこまで実用的な補完ができるか気になるところです。日本語環境での展開が始まったら、実際の精度を確かめてから検証記事を書くつもりです。 ...

April 27, 2026 · 1 min · AI Navi JP編集部
ホンダAI運転支援2028年延期

ホンダのAI運転支援が2028年へ延期。次の車でAIはどこまで使えるか

次に車を選ぶとき、AIがどこまで運転を代わってくれるか。その答えが、また少し先に延びました。カーナビに目的地を入れれば高速でも一般道でも運転操作を支援してくれる機能を、ホンダは2027年頃に量産車へ載せる計画でした。2026年4月25日、日本経済新聞がその時期を2028年へ延期すると報じました。 延期の理由は、技術的な問題ではありません。搭載を予定していた車種が、EV戦略の見直しで白紙になった。それが直接の原因です。 延期されたのは「完全自動運転」ではなく運転支援の技術 今回の対象は「ナビゲート・オン・オートパイロット(NOA)」という運転支援システムです。ADAS(運転支援システム)の一種で、目的地を設定すると高速道路から一般道まで運転操作の多くをクルマが代わりに行います。 ただし「完全自動運転」とは別物です。ドライバーが乗らなくていい自動運転ではなく、あくまで人が乗った状態でアクセル・ブレーキ・ハンドル操作を支援する技術です。長距離の高速移動や渋滞の多い都市部では運転の負担がかなり減ります。一方で現時点では、緊急時の判断はドライバーが担う前提です。つまり、購入時には「運転を任せる機能」ではなく「疲れを減らす補助」として見るのが現実に近いです。 ホンダは2025年5月の公式説明で、この次世代ADASを2027年頃に北米と日本で投入予定のEV・ハイブリッド車の主力ラインアップへ幅広く適用すると発表していました。同年10月には米国公道でのテスト走行が順調と説明し、ハイブリッド車への展開も明言。2027年目標を2度にわたって確認していました。 EV計画の白紙化がAI搭載時期を動かした理由 今回わたしが気になったのは、技術の進捗と事業計画がまったく別のリズムで動いているという点です。 ホンダは2025年10月、米国のAI企業Helm.aiへの追加出資を発表しました。Helm.aiはEnd-to-EndのAIアーキテクチャーで運転支援を開発する会社です。これは、カメラやセンサーの入力から加速・操舵の出力までを一つのAI設計で扱う方式を指します。Deep Teachingは、少量の教師データから多様な走行場面を学ばせるHelm.ai独自の手法です。ホンダはこれらの技術と生成AIを組み合わせ、一般道・高速道路を問わず全ルートで支援する次世代ADASを共同開発しています。この投資は延期後も継続中です。 それと同時期、ホンダは四輪電動化の戦略を見直していました。EV市場の拡大スピードが想定を下回り、2030年時点のEV販売比率は従来目標の30%を下回る見通しになったと公式に説明しています。NOAを載せる予定だった車種がそのEV見直しの影響で計画から外れ、搭載時期がずれた形です。 AI技術への投資は続けながら、「どの車に載せるか」という側が先に崩れた。AIが搭載された車が市場に出るには、技術の完成だけでなく、搭載する車種の量産計画と販売戦略がセットで必要だということを、今回の延期は具体的な形で示しています。 次の車を選ぶ人に関係すること 車を近々買い替える予定がある人、あるいは高齢の家族の運転を気にしている人には直接関係する話です。 2027年頃に使えると思っていた機能が2028年以降にずれた。競合他社、たとえばトヨタやBMW、テスラも同様の運転支援機能を展開中ですが、どのメーカーがいつ日本市場で量産車に載せてくるかは、購入を考えるうえで確認が必要です。 ホンダの次世代ADASについては、2028年が現時点の目安です。搭載車種の詳細はまだ公表されていません。2028年を待つか、他社の支援機能を含めて今買うか。車選びの比較軸が、価格や燃費だけでは終わらなくなってきました。 日本経済新聞 - ホンダがAI自動運転も延期 EV見直し余波で28年に、競合に後れ(https://www.nikkei.com/article/DGXZQOUC087D00Y6A400C2000000/) Honda - 2025 ビジネスアップデート 説明概要(https://global.honda/jp/news/2025/c250520.html) Honda - 次世代AD・ADASの開発強化に向け、米国Helm.ai社に追加出資(https://global.honda/jp/news/2025/c251015a.html) Honda - Japan Mobility Show 2025 取締役 代表執行役社長 三部 敏宏 スピーチ概要(https://global.honda/jp/news/2025/c251029.html)

April 26, 2026 · 1 min · AI Navi JP編集部
AIで作った声は権利で守れるか

AIで作った声は権利で守れるか 法務省の検討会が始動

SNSに流れてきた音声が本人の声にそっくりで、本人は許可していない。そんなAI音声を見たとき、笑って流せる話なのか、権利侵害として止められる話なのか。国が線引きの整理を始めました。 今回の話は、声優や歌手だけの問題ではありません。配信者、講師、営業担当、経営者の声や顔も、仕事の信用そのものになることがあります。生成AIで似た音声や画像を作れる時代には、許可を取る範囲も見直す必要が出てきます。 法務省は4月24日に初会合を開いた 法務省は2026年4月24日、「肖像、声等の無断利用による民事責任の在り方に関する検討会」の第1回会合を開きました。公式ページには、議事次第、検討会の開催資料、主な論点案、判例や学説の資料が掲載されています。報道だけでなく、読者も資料を追える状態です。 この検討会の目的は、新しい罰則をすぐ作ることではありません。生成AIの普及で、肖像や声の無断利用が深刻化しているとの指摘を受け、現行法と判例をもとに民事上の責任を整理することです。民事上の責任とは、損害賠償や差し止めなど、お金や利用停止を求める場面の話です。 時事通信系の報道では、出席者がパブリシティ権や肖像権の保護対象に声も含まれるとの認識で一致したとされています。パブリシティ権は、名前、顔、姿などが持つ商業的な価値を本人がコントロールする権利です。この考え方が、AI音声の公開判断に入ってきます。 写真だけでなく、声でも本人だと分かるなら商業価値が生まれる。ここが今回の中心です。 検討会は、今夏までに指針をまとめる方向です。指針そのものに法律と同じ拘束力はありません。それでも、企業やクリエイターがAI音声やAI画像を使うときの判断材料になります。 声も本人を示す情報として扱われる 声は見た目と違い、コピーされたことに気づくまで時間がかかります。短い音声から似た声を作るサービスも増えました。本人の許可がない音声でも、動画投稿サイトやSNSに出れば、視聴者は本物だと思ってしまうことがあります。 肖像権は、顔や姿を勝手に撮られたり使われたりしない利益を守る考え方です。パブリシティ権は、著名人の名前や肖像が持つ集客力を無断で商売に使われないための考え方です。 どちらも法律の条文だけで完結する話ではないんですよね。判例の積み重ねで少しずつ形が固まる領域なので、今回の検討会資料は今後の基準を読む入口になります。 声については裁判例が多くありません。だから今回、法務省の検討会が「声も本人を識別する情報として扱えるのか」を正面から扱っています。 わたしが気になるのは、ここがAIサービスの利用規約だけでは片づかない点です。ツール側が「作れます」と言っても、公開や収益化まで許されるとは限らないんですよね。 AIカバーやディープフェイクは作成者だけの責任では終わらない FNNは、検討会で挙がった例として、俳優に似た人物がアクションをする動画、声優キャラクターの声で別の曲を歌うAI音源、俳優が裸になっているような画像の生成を報じています。どれも「本人に似ている」「公開される」「収益や注目を集める」という要素が絡みます。 報道では、作成した本人だけでなく、無断利用を助長するアプリの開発側も責任対象にすべきだという意見も出ています。これはかなり重い論点です。AIツールを提供する企業にとっては、利用者任せにできる範囲が狭まる可能性があります。 収益目的がない作成や、著名人ではない人のケースも今後の検討対象です。たとえば、社内向けの研修動画で社員に似た声を勝手に使う。 友人の顔に似た画像をSNSで公開する。お金を取っていなくても、本人の信用や安心を傷つける場面はあります。 AI音声を出す前に確認すること 仕事でAI音声やAI動画を使う人は、完成物の品質だけを見て判断しない方がいいです。許可、本人らしさ、利用場面を決めてから公開したいところです。 公開前の確認は、本人または権利者の許可、特定人物を連想させる度合い、広告や販売や再生収益との関係に分けます。元素材の出所と削除依頼の窓口も、社内で説明できる状態にしておきたいです。 全部を満たせば安全、という話ではありません。ただ、ここで引っかかるものは公開前に止めて確認した方がいいです。AIで作った素材は、本人の名前を出していなくても、聞いた人や見た人が本人を思い浮かべることがあります。 7月ごろの指針で見たいこと 今回の検討会が整理しようとしているのは、「作れる技術」と「出していい利用」の間にある線です。AI音声の作成そのものを一律に止める話ではありません。本人の信用、商業的な価値、性的な画像被害、趣味の投稿、一般人のケースを分けて考える必要があります。 法務省の指針が出ても、すべてのケースが一発で解決するわけではありません。けれど、声も顔と同じように本人の一部として扱う方向がはっきりすれば、企業のAI利用ルールは変わります。SNS運用、広告制作、社内研修動画、VTuberや配信者の二次創作にも影響します。 AIで似た声が作れるようになった今、確認するべきなのは技術の精度だけではありません。「誰の声として受け取られるか」です。ここを外すと、便利な制作ツールがそのまま誰かの信用を削る道具になります。 参考 法務省「肖像、声等の無断利用による民事責任の在り方に関する検討会」(https://www.moj.go.jp/MINJI/minji07_00400.html) 法務省「肖像、声等の無断利用による民事責任の在り方に関する検討会第1回(令和8年4月24日)」(https://www.moj.go.jp/MINJI/minji07_00399.html) リスク対策.com「AI利用、『声』も保護対象に=有識者検討会が初会合―法務省」(https://www.risktaisaku.com/articles/-/111321) FNNプライムオンライン「声優やアイドルの声を守れ!生成AI普及で無断使用の深刻化を受け法務省が有識者検討会」(https://www.fnn.jp/articles/-/1035466)

April 25, 2026 · 1 min · AI Navi JP編集部
NECとAnthropicの提携・企業向けAI展開を解説するヘッダー画像

NECがClaudeを3万人規模で導入へ。日本企業のAI活用が「試す段階」を超えた

「うちの会社でもAIの検証は始めているんだけど、まだ一部の部署だけで」という話を、この1年でずいぶん聞くようになりました。今週、その「試す段階」が終わりに近づいているかもしれないニュースが出てきました。NECが日本企業として初めてAnthropicのグローバルパートナーになり、社内で約3万人のエンジニアがClaudeを日常利用する体制を目指すと同時に、金融・製造・自治体向けの業種別AIを展開すると発表したのです。 一部の部署で実験するPoC段階と、「社内全員が毎日使う」+「業種別に外販もする」ではまったく違います。後者がそろって初めて、AIが会社の仕組みに組み込まれたと言えるわけです。 NECが「日本初のAnthropicグローバルパートナー」になった 2026年4月23日、NECはAnthropicとの戦略的協業開始を発表しました。Anthropicはアメリカ発のAI企業で、ChatGPTに対抗するAI「Claude(クロード)」を開発しています。単なる販売代理店の契約ではなく、両社が共同でソリューションを開発・展開する「グローバルパートナー」、つまり製品を一緒に作って届ける深い提携関係で、日本企業がこのパートナーシップに入るのはNECが初めてです。AIを「使う会社」だったNECが「作って届ける会社」側にも回る、という変化です。 協業の柱は大きく二つあります。一つはNEC自身の社内導入、もう一つは日本の企業や官公庁向けの外販です。 社内では、Anthropicが今年4月9日に一般提供を開始したデスクトップ向けAIエージェント「Claude Cowork(クロード・コワーク)」、パソコン上でAIが作業を代行するアプリを活用し、開発業務の効率化を進めます。あわせてCoE(社内AI推進チーム)を立ち上げる計画で、3年程度で約3万人のエンジニアがClaudeを日常的に使う体制を目指すとしています。 金融・製造・自治体、「難しいとされた領域」を最初のターゲットに 業種別ソリューションの第一弾として名前が上がっているのが、金融、製造、自治体の3分野です。 これは注目したいところで、どれも「AI導入が難しい」とされてきた領域でもある。データの機密性、法的な制約、業務フローの複雑さ。汎用AIをそのまま使えない部分が多く、PoC止まりになる企業が多かった業種です。 NECは自社のDX推進の取り組み「BluStellar Scenario(ブルーステラ・シナリオ)」にClaudeを組み込み、経営管理や顧客対応から順次使える範囲を広げていくとしています。セキュリティや日本特有の法規制に対応した形で展開する、という点を両社ともに強調している点が特徴的です。AIが難しいとされる業種から先に動くことで、導入の本気度が伝わる構成です。 セキュリティを「後付け」にしない設計 今回の協業でもう一つ確認しておきたいのが、NECがAnthropicの技術を自社のサイバーセキュリティサービスの高度化にも使うと明言している点です。 「便利だけどデータを外に出せない」という懸念が、多くの日本企業でAI展開のブレーキになってきました。セキュリティを後から足すのではなく、導入の設計段階から組み込もうとしているのは、その懸念に正面から答えようとしているとわたしは読んでいます。規制が厳しく、情報管理に神経を使う金融や自治体を最初のターゲットにするなら、なおさら必要な姿勢でしょう。 Anthropicの東京オフィス開設と重なる意味 この提携のタイミングは、Anthropicの日本戦略とも重なります。 同社は今週、東京オフィスの開設と日本AI Safety Instituteとの協力も発表しました。AIの安全性に厳しい姿勢で知られるAnthropicが、日本市場をアジア拡大の重要拠点に位置づけていることが、複数の動きから一気に見えてきた形です。 NECとの提携は「日本向けの安全で業種対応したAIを、NECが販売・展開する」という構図になっており、Anthropicにとっては日本特有の規制環境をNECのノウハウで乗り越えるルートにもなる。日本市場への本気度を、両社から同時に感じる動きです。 この動きが中小企業や個人の仕事にどうつながるか 直接的な影響が出やすいのは、大企業や官公庁まわりの事務作業、資料作成、定型的な審査・確認業務といった領域です。今すぐ仕事がなくなるというよりは、「AIを前提に業務の手順が組み替わる」という変化が先に来るでしょう。 もう一つ。大企業が業種別の標準を作ると、その取引先や中堅企業にも「うちも対応しなければ」という動きが生まれやすい。日本のビジネス文化的に、大手が動くと周囲の追随は比較的速い。 「どの業務にAIを使えばいいのか」という問いに対して、業種別・業務別のテンプレートが整ってくるのがこれから1〜2年の流れだとすると、今回のNECの動きはその文脈で押さえておく価値があります。 出典 NEC | NEC、Anthropicとエンタープライズ AI 分野を中心に戦略的協業を開始 | https://jpn.nec.com/press/202604/20260423_01.html (2026-04-23) 日本経済新聞 | NEC、米アンソロピックと提携 法人向けAI需要を開拓 | https://www.nikkei.com/article/DGXZQOUC228XJ0S6A420C2000000/ (2026-04-23) Impress Watch | 金融・製造・自治体版「Claude Cowork」展開へ NECとアンソロピック提携 | https://www.watch.impress.co.jp/docs/news/2104228.html (2026-04-23) Anthropic | Opening Our Tokyo Office | https://www.anthropic.com/news/opening-our-tokyo-office (2026-04-23)

April 24, 2026 · 1 min · AI Navi JP編集部
MetaのPC操作追跡ツールMCI解説ヘッダー

会社のPC操作がAIの教材に MetaのMCI、何を記録するか

仕事でPCを使っているとき、マウスを何回クリックしたか意識したことはありますか。 その操作の記録を、Metaが4月21日から社員のPCで集め始めました。AIエージェントに人の操作を学ばせるのが目的で、会社支給PCであれば断ることはできません。 Metaが「MCI」で収集している4つのデータ MetaはMCI(Model Capability Initiative)という名称のツールを、米国拠点の社員向けに展開しました。Business Insiderが入手した社内文面には「Starting today」と記されていて、展開は2026年4月21日から始まっています。 記録されるのは、マウスの移動、クリック位置、キーストローク、そして文脈把握のための画面内容の一部です。 社内では「opt outできないのか」という声が上がりましたが、会社支給PCでは拒否できないとThe Vergeは報じています。自分が使っているPCである以上、操作の記録を止める選択肢はない状態です。 公開データでは足りない理由 AIエージェントの壁 MCIが目指しているのは、PCを人のように操作できるAIエージェントです。 「人のように操作」というのは、具体的にはこういうことです。メールを開いてリンクをクリックする。スプレッドシートで特定の列を選んで数式を入力する。ドロップダウンメニューから適切な項目を選ぶ。こうした操作を、AIが人間の代わりに行えるようにする。 この訓練に必要なのは、人が実際にどうPCを操作しているかの記録です。ところがインターネット上の公開データには、そういう情報はほとんど存在しません。どのアイコンをどのタイミングでクリックするか、どういう順番でタブを切り替えるかは、ウェブには落ちていないのです。 「日常タスクを支援するエージェントを作るには、人が実際にどうPCを使うかの実例が必要」とMeta広報はTechCrunchとThe Vergeに説明しています。MCIは、公開データでは埋めようのない空白を社員データで補う試みです。 MetaはAI関連で2026年に約1400億ドル(約21兆円)の支出を見込んでいます。トヨタの年間売上高(2024年実績:44兆円)のほぼ半分に相当する規模感です。MCIは、その大規模投資を支える訓練データ収集の一環として位置づけられています。 Metaが「使わない」と言っていること、言っていないこと Metaは、収集データを人事評価には使わず、他の目的にも使わないと説明しています。 ちょっと気になるのは、どのデータが収集対象外なのかの詳細が公開されていない点です。パスワード入力はどうか。社外に送るメール本文は含まれるか。現時点の公式情報では確認できていません。 また、現在のポリシーが今後も変わらない保証については、言及がありません。データが蓄積された先に何が起きるかは、現時点では不明です。 Reutersはこのタイミングで、Metaが5月20日から世界全体で社員の10%を削減する計画も進めていると報じています。AI投資の拡大と人員削減が同時進行しているのは、Metaが自社の働き方を大きく組み替えようとしている証拠です。 日本のオフィスで確認しておくべきこと 今回の話はMeta社員だけの問題ではありません。 日本企業でもMicrosoft CopilotやChatGPT Enterpriseの導入が広がっています。これらのサービスがどのデータを学習に使うかは各社のポリシーに記載がありますが、実際に読んでいる人はそう多くないでしょう。 確認しておく価値がある視点は3つです。社内AIが何を記録するか。そのデータが何に再利用されるか。断れる状況にあるか。 MetaのMCIは、便利な社内AIがどんなデータを使って作られるかを、あまり見えない形で進めてきた業界の流れを、珍しく明示した例といえます。 参考 Reuters - Exclusive: Meta to start capturing employee mouse movements, keystrokes for AI training data(https://www.reuters.com/sustainability/boards-policy-regulation/meta-start-capturing-employee-mouse-movements-keystrokes-ai-training-data-2026-04-21/) ロイター日本語版 - Meta、AI訓練のため従業員のマウスの動きやキーストロークの取得を開始(https://jp.reuters.com/business/technology/TWLWJEULZZJEDFQIG3GXP5VQ6M-2026-04-22/) TechCrunch - Meta will record employees’ keystrokes and use it to train its AI models(https://techcrunch.com/2026/04/21/meta-will-record-employees-keystrokes-and-use-it-to-train-its-ai-models/) The Verge - Meta AI agents employee tracking(https://www.theverge.com/tech/916681/meta-ai-agents-employee-tracking) BBC News - Meta tracks staff activity for AI(https://www.bbc.com/news/articles/cvglyklz49jo) Business Insider - Meta new AI tool tracks staff activity sparks concern(https://www.businessinsider.com/meta-new-ai-tool-tracks-staff-activity-sparks-concern-2026-4) GIGAZINE - MetaがAI訓練のため従業員のマウスの動きやキーストロークの記録を開始(https://gigazine.net/news/20260422-meta-capturing-emoloyee-mouse-keystrokes/) ※当サイトのリンクにはアフィリエイトリンクが含まれる場合があります ...

April 23, 2026 · 1 min · AI Navi JP編集部
銀行アプリが投資を案内する時代 — LloydsのAIと助言との違い

銀行アプリが投資を「案内」する時代が始まった。LloydsのAIと、助言との決定的な違い

銀行のアプリを開いて「そろそろ投資を始めようかな」と思ったとき、どこから手をつけるかで止まった経験はありませんか。ウェブで調べると情報が多すぎて、証券会社の窓口は敷居が高い。そのちょうど間の場所に、AIが入ってきました。 イギリスの大手銀行Lloyds Banking Groupが4月21日、傘下の年金・投資部門Scottish Widowsで、顧客の投資判断を支えるAI機能のパイロットを開始したと報じられました。気になるのは、規模の話ではなくて「何をしてくれるか」の設計です。 このAIは投資の「助言(advice)」をするのではなく、「案内(guidance)」に限定されています。その線引きがどこにあるのか。それが、これからのAI金融サービスを読む上でいちばん重要な点です。 パイロット開始の経緯と、FCAが絡む背景 まずは事実を整理します。 Lloydsは2025年11月に「イギリス初のAI搭載金融アシスタント」を2026年前半に立ち上げると発表していました。対象は2,100万人超が使う既存のモバイルアプリ。新しい専用サービスではなく、普段から使う銀行アプリの中にAIを溶け込ませる設計です。 今回の投資向けパイロットはその続きにあたります。Scottish Widowsの一部顧客を対象にした限定的な試験で、2026年後半に対象を拡大する予定だとされています。 この動きにはイギリスの金融規制当局FCA(金融行動監視機構)が深く絡んでいます。FCAはLloydsを含む8機関と連携し、AIを使った「targeted support(対象を絞った支援)」を実地テストする枠組みを立ち上げています。これはこれまでの「一般情報提供」と「完全な個別助言」の間に新しい規制カテゴリを作る試みで、AI金融サービスの普及を後押しする制度設計の実験です。 「助言」と「案内」、どこが違うのか この記事を読む上でいちばん大事な概念なので、丁寧に説明します。 金融の世界では「あなたには〇〇が向いています」と具体的に薦める行為は完全な個別助言に分類されます。これには厳格な法的義務と責任が伴い、資格を持ったアドバイザーが担う領域です。利用者が少ない理由のひとつは、提供コストが高くてアドバイザーの採算が取れないため、資産額が一定以下の人は相手にされにくいからです。 一方、今回LloydsのAIが担うのは「targeted support」=対象を絞った案内です。Scottish WidowsのCEOはこれを「投資のためのカーナビ」と表現しました。カーナビは目的地へのルート選択肢を示しますが、「どの目的地を選ぶか」は運転者が決める。投資に置き換えると、「あなたの状況ではこういう選択肢がありますよ」と整理してくれるけれど、「この商品を買え」とは言わない、という位置づけです。 なるほどと思ったのは、Lloydsがこの「カーナビ」という比喩を選んだことです。「AIに任せれば大丈夫」という印象を避けながら、「一人で調べるより整理しやすい」という価値をうまく伝えている。AIを売り込みたい企業がついやりがちな過大な約束をしていない点で、少し慎重な設計だな、と感じます。 規制面でも、targeted supportは完全な個別助言より義務が軽いカテゴリです。これがFCAの実地テスト枠組みの中で動いているということは、「この運用で本当に問題が起きないか」をまだ試している段階だ、とも言えます。 日本のNISA利用者にとって、何が変わりそうか Lloydsはイギリスの銀行ですが、日本との接点を考えておく価値はあります。 日本でもNISAの利用者が急増しており、投資に初めて踏み出す層がどこに相談するかは課題のままです。銀行窓口でのアドバイスは手数料の高い商品に偏りやすい、という批判は昔からあります。ロボアドバイザーはある程度自動化しましたが、「自分の状況に合っているか」を相談できる機能は限られていました。 そこにAIが入る構図は、日本の金融機関にとっても参考になるはずです。Lloydsのような「案内に限定するAI」が日本の銀行アプリに登場したとして、どう使えばよいか。 一つだけ押さえておきたいのは、AIが「案内」してくれても、最終的な責任は利用者にあるという点です。カーナビで事故が起きたとき、責任はドライバーにあります。Lloydsのこの設計は便利である一方、そういう構造になっています。「AIがすすめたから」という理由で判断を委ねると、いざ損失が出たときに問い合わせ先がないという経験をすることになりかねません。 投資初心者ほど、このあたりは知っておいたほうがいいと思います。サービスが「いつでも相談できます」と言うとき、それが「助言」なのか「案内」なのかで、提供されるものの中身はかなり違います。 2026年後半に何が見えてくるか Lloydsはパイロット後、2026年後半に対象を拡大する予定です。同時にFCAの実地テストの結果も、英国の金融AI規制の方向性を決める材料になります。 targeted supportを正式な規制カテゴリとして整備できれば、銀行アプリがより積極的にAI投資案内を提供できる土台が整います。逆に、テストの中でリスクや問題が確認されれば、規制が厳しくなる可能性もあります。今回のニュースはパイロット開始にすぎないので、2026年後半の動向が本当の判断材料になるでしょう。 日本の金融機関や規制当局がこの事例をどう参照するか。現時点ではまだ動きは見えていませんが、英国の実験の行方は注視しておく価値があります。 もし日本の銀行アプリに同じ機能が来たとき、「おすすめ商品を出してくれるもの」ではなく「選択肢を整理してくれるもの」として使う。そこを押さえておくと、余計な勘違いをしなくて済みます。 出典 Channel News Asia(Reuters配信)— Lloyds pilots AI investment guidance tool as UK regulator studies impact(https://www.channelnewsasia.com/business/lloyds-pilots-ai-investment-guidance-tool-uk-regulator-studies-impact-6070966) Lloyds Banking Group 公式発表 — Lloyds Banking Group unveils UK’s first multi-feature AI-powered financial assistant(https://www.lloydsbankinggroup.com/media/press-releases/2025/lloyds-banking-group-2025/lloyds-banking-group-unveils-uks-first-ai-powered-financial-assistant.html) Lloyds Banking Group 公式発表 — Group expects over £100m in value from next-gen AI in 2026(https://www.lloydsbankinggroup.com/media/press-releases/2026/lloyds-banking-group/ai-driven-benefits-2026.html)

April 22, 2026 · 1 min · AI Navi JP編集部
あなたの写真がAI学習に使われていた──OkCupidの300万枚削除事件

あなたの写真が、知らない間にAI学習に使われていた──OkCupidの300万枚削除事件

2014年、デートアプリ「OkCupid」にプロフィール写真をアップロードしたユーザーがいます。その写真が、本人の知らないところで顔認識AIの学習データになっていたんですよね。これ、デートアプリを使ったことがない人にとっても、少し怖い話だと思います。 今月4月20日、Reutersがこの話の「続き」を報じました。顔認識AI企業のClarifaiが4月7日、OkCupid由来の写真・関連データ・そしてそこから学習させた顔認識モデルをすべて削除したと、FTC(アメリカの消費者保護を担う連邦機関)へ証明したというのです。 データを消すだけでなく、学習済みモデルまで消した。この一点が今回のニュースの新しさです。 いったい何があったのか 2014年9月ごろ、OkCupidの親会社Match Groupはユーザーの写真約300万枚と位置情報などの関連データを、外部のAI企業Clarifaiへ渡しました。FTCによれば、ClarifaiはOkCupidのサービス提供者でも提携先でも、グループ会社でもなかったといいます。つまり、ユーザーが普通に想定する範囲の外にある第三者だったわけです。 Clarifaiはそのデータを使い、顔写真から年齢・性別・人種を推定する顔認識モデルの構築に利用していた(Ars Technica報道)。 OkCupid側は「2014年の古い慣行であり、現在の運用を反映しない」と説明している。ただ、FTCはOkCupidがこの件を長く隠そうとしたとも主張しており、その点は当事者間で見解が分かれる。 FTCは動いたが、罰金はゼロ 2026年3月30日、FTCはOkCupidとMatch Group Americasに対する和解を発表した。内容は、個人情報の共有実態について虚偽の説明をしないよう求める恒久的な禁止命令。ただし金銭的な罰金はない。 正直、この部分は少し拍子抜けした。300万人分のデータが無断で使われ、12年近く経ってようやく「今後はやるな」という命令で終わった。 罰金ゼロの背景として、アメリカのプライバシー保護法制が州ごとにバラバラで、連邦レベルの包括的な規制がまだ存在しないことがある。FTCは既存の権限の範囲で動いたかたちだ。 学習済みモデルまで消せるのか、という問い 今回のニュースでわたしが一番注目したのは、「モデルの削除」という部分です。 まず前提として、顔認識AIに自分の写真が使われると何が起きるのか整理しておきたいと思います。自分の写真がどこかのサイトに表示される、という話ではありません。AIが「この顔の人は何歳くらい」「どんな属性をもつ人か」を推定する精度を上げる材料にされた、という話です。この点、意外と誤解されやすいので。 その上で本題です。AI学習に使われたデータは、一般的に「モデルの重み」として内部に組み込まれます。写真そのものの記録ではなく、AIが写真から覚えた特徴のかたまりのようなものです。データ本体を消しても、そこから学習されたモデルは残る。これが従来「忘れる権利」の実装が難しい理由のひとつとして挙げられてきました。 Clarifaiは今回、FTCの調査を受けて写真・関連データだけでなく、そこから生成した顔認識モデルも削除したと証明した。外部から「モデルを消せ」と要求され、企業が実際に応じたケースとして、数は多くない。 ただし、これが「AIモデルから特定データの影響を完全に除去できた」ことを意味するかどうかは別の話だ。今回はモデルごと廃棄した、というシンプルな話で、技術的な「アンラーニング(機械学習の忘却)」の実現ではない。 自分のデータについて、いまできること 今回の件はアメリカのサービスの話だが、関係のない話でもない。過去にSNSや各種サービスへアップロードした顔写真が、同様の経路でAI学習に利用される可能性はゼロではないから。 具体的に確認できることを挙げておきます。 使わなくなったサービスのアカウントは退会処理をする(放置アカウントのデータはアクセス管理が甘くなりやすい) 利用中のサービスのプライバシーポリシーで、第三者へのデータ提供に関する条項を確認する 気になるサービスには「データ削除リクエスト」を送れる場合がある(EUや日本など個人情報保護のルールが整備されている地域では特に有効) 完璧な防御策はないが、古い写真・古いアカウントの整理は、リスクを小さくする現実的な手立てです。 出典 Reuters「AI company deleted OKCupid user photos, data after FTC scrutiny」2026-04-20 https://www.reuters.com/legal/government/ai-company-deleted-okcupid-user-photos-data-after-ftc-scrutiny-2026-04-20/ FTC「FTC Takes Action Against Match and OkCupid for Deceiving Users by Sharing Personal Data with Third Party」2026-03-30 https://www.ftc.gov/news-events/news/press-releases/2026/03/ftc-takes-action-against-match-okcupid-deceiving-users-sharing-personal-data-third-party Ars Technica「OkCupid gave 3 million dating-app photos to facial recognition firm, FTC says」2026-03-31 https://arstechnica.com/tech-policy/2026/03/okcupid-match-pay-no-fine-for-sharing-user-photos-with-facial-recognition-firm/

April 21, 2026 · 1 min · AI Navi JP編集部
AIが作業画面に来た — Google Gemini Macアプリ

GeminiがMacに来た。ブラウザを開かずにAIを呼べる、新しい作業のかたち

作業の途中でふと「この表の要点だけ知りたい」と思ったとき、ブラウザのGeminiタブを開いて、テキストをコピーして、貼り付けて……という手順を踏んでいる方は少なくないと思います。 ところが、その動きが変わりつつあります。 Googleは4月15日、GeminiのMacアプリ(SafariやChromeを開かなくてもMac上で直接使えるアプリ)を正式に公開しました。キーボードショートカット一発で作業画面からAIを呼び出し、今開いているウィンドウをそのまま見せながら質問できる。ブラウザを行き来しなくていい作業環境が、始まりました。 4月15日に配布開始、4月20日に公式ブログ公開 最初に日付を整理しておきます。 Google Workspace Updatesが「Starting today, the native macOS app is available」と案内したのは4月15日です。4月20日にGoogleの公式ブログが「The Gemini app is now on Mac」を公開しましたが、これは配布開始を広く周知するための記事で、新機能の追加発表ではありません。 速報としては4月15日から使える状態になっていた、と押さえておくと正確です。ニュースを見て「もう使えるの?」と思った方は、すでに使えます。 ショートカット一発、作業画面からAIを呼べる このアプリで一番大きな変化は、どのアプリで作業していてもAIを呼べることです。 キーボードショートカット Option + Space を押すと、画面上にGeminiが浮き上がります。Pagesで文章を書いていても、Numbersで表を開いていても、別タブに切り替える必要はありません。 さらに、画面共有機能が付いています。今見ているウィンドウやMac内のファイルをGeminiに渡しながら質問できます。「このスプレッドシートの要点を教えて」「この文章をもう少し短くして」のような作業が、ほぼその場で終わります。 Googleはこのアプリから画像や動画を生成する機能にもアクセスできると案内していて、単なるチャット窓以上の入口として位置づけています。 ブラウザ経由とMacアプリ、作業の手数が変わる わたしが気になったのはこの点です。ブラウザのタブでGeminiを使っていたときは、「タブを探す→テキストをコピーする→貼り付ける」という動線が毎回発生していました。Macアプリはその往復をカットします。 ブラウザ経由の5ステップが2ステップに変わる。大げさな違いには見えませんが、「ちょっと確認したい」の頻度が多い作業では積み重なっていくものです。 使うための条件 利用条件をまとめます。 macOS 15以降 RAM 8GB以上(ここ数年の一般的なMacならほぼ満たしている条件です) 空き容量 200MB以上 個人のGoogleアカウント、またはGeminiが有効化された仕事用・学校用アカウント アプリ自体は無料で配布されています。有料のGeminiプランに入っていなくても基本的なチャット機能は使えます。高度な機能が必要になったときに、追加のプランを検討する流れで十分です。 職場のGoogleアカウントを使っている場合、管理者が設定でオン・オフを切り替えられます。デフォルトはオンなので、心配な人はIT担当者に確認してみてください。 画面共有で気をつけたいこと たとえば、社内メールの文面チェック、提出書類の要約、問い合わせ対応の下書き確認のような作業で便利に使えます。いずれもテキストで渡せば済むので、画面そのものを見せなくても大丈夫です。 画面共有機能は便利ですが、Geminiに渡した情報はGoogleのサーバーで処理されます。顧客の氏名や電話番号が映っている画面をそのまま渡すのは、職場のルール的にも避けた方が無難です。必要な部分だけテキストでコピーして渡す使い方が安心です。 「ブラウザの外」へ向かう流れ AI各社はここ数か月、ブラウザのチャット画面だけでは差別化しにくくなっています。Googleも4月17日にChrome内で作業画面化する機能を公開しており、今回のMacアプリはその流れをデスクトップ側に広げたものです。 「AIに聞く」という行動が、別窓を開く作業から、手元の資料を見せて確認する動作に近づいていく。そういう方向に各社が動いています。macOS 15以降のMacをお使いであれば、試してみる価値のある変化だと思います。 参考 Google Blog — The Gemini app is now on Mac(https://blog.google/innovation-and-ai/products/gemini-app/gemini-app-now-on-mac-os/) Google Workspace Updates — Now available: The Gemini app for Mac(https://workspaceupdates.googleblog.com/2026/04/now-available-gemini-app-for-mac.html) Google Support — Gemini app for Mac(https://support.google.com/gemini?p=mac_app) TechCrunch — Google rolls out a native Gemini app for Mac(https://techcrunch.com/2026/04/15/google-rolls-out-a-native-gemini-app-for-mac/)

April 20, 2026 · 1 min · AI Navi JP編集部