GPT-4 o と o3-mini、最適な使い分けを発見!

ChatGPTの最新バージョン「GPT-4 o」と「o3-mini」は、それぞれ異なる強みを持っています。
- GPT-4 o はフォーマット適用が完璧で、WP(WordPress)用の記事フォーマットをしっかり整えられる。
- o3-mini はWEB検索を活用した推論が得意で、検索結果を基にした考察が可能。
この2つをうまく切り替えることで、WEB検索を活用しながら、SEOに強い高品質な記事を短時間で効率的に作成できるAIワークフローが実現できます!これにより、リサーチと記事作成のプロセスがスムーズになり、時間を大幅に節約できます。
なぜこの方法が必要なのか?

GPT-4 o のメモリ活用範囲と o1 以降の推論モデルの違い
GPT-4 o は、セッションをまたいで細かい文章のフォーマットや手法を再現するためにメモリを活用できます。例えば、過去に作成した記事のフォーマットやSEO構造を記憶し、同じルールで新しい記事を自動生成できます。これにより、一貫性のあるコンテンツを作成しやすくなります。そのため、記事の構成やWPフォーマットの適用など、一貫性のある出力が可能です。例えば、記事の見出し構造(H2、H3など)を統一したり、SEOに適したタグ付けを維持したりすることで、過去に作成した記事との整合性を保つことができます。
一方で、o1 以降の推論モデル(o1, o3-mini など)は、長期的なメモリを保持しない仕様のため、過去のフォーマット指示を引き継ぐことができません。
この違いを理解し、GPT-4 o を活用することで、過去に適用した記事フォーマットを再現しながら、効率的に記事作成を進めることができます。
なお従来からあるGPT-4 o1 は記事構成の整理や推論を活用した深掘り記事生成に優れていますが、WEB検索ができません。つまり、
- 最新の情報を取得できない
- Googleのアルゴリズム変動やトレンドをリアルタイムで調査できない
- WPフォーマットの適用が苦手
- 長期的な指示を保持できない
一方同じ推論モデルの最新のo3-mini はWEB検索が可能ですがやはりo1と同じで、
- WPフォーマットなどのメモリに指定してある内容の適用が苦手(というか無視する)
- 長期的な指示を保持できない
そこで、「WEB検索機能が使えるo3-mini で最新情報を取得し、GPT-4 o で整形する」ことで、
✅ 最新情報を活用したSEO記事が作れる!
✅ (あらかじめ設定してある)WPフォーマットを崩さずに整理できる!
✅ AIの強みを最大限に活かせる!
実験で証明!「WEB検索を維持しながらAI記事作成が可能」

実験内容:GoogleアルゴリズムアップデートのSEO影響を調査
- o3-mini で「Googleの最新アルゴリズムアップデート(2024年)」をWEB検索(例:「Google 2024年 コアアップデート 影響」や「最新 Google アルゴリズム変更 SEO対策」などのキーワードを試す)
- o3-mini の推論力を活用し、SEOへの影響を分析
- GPT-4 o に切り替えて、WP用フォーマットに整形
- SEO最適化された記事をWPへコピペ!
結果:この方法は成功!
- o3-mini でWEB検索した情報をGPT-4 o で整形することで、最新情報を取り入れ高度な推論で得たSEO記事を規定のフォーマット通りに作成できる
- WEB検索の機能を維持しながら作業を続けられる!
- o1を使用するとWEB検索が無効化されるため、注意が必要!
具体的な使い方と手順

WPにコピペとは?
GPT-4 o では「WPにコピペ」と指示すると、以下の処理を自動で行います。この動作は、ユーザーのメモリ設定に基づき適用されています。具体的には、ユーザーは「WPにコピペ」と指示があった場合、必ずマークダウン形式のコードブロックで出力することを希望しており、この形式を恒久的に適用するよう設定されています。 GPT-4 o では「WPにコピペ」と指示すると、以下の処理を自動で行います。
- マークダウン形式のコードブロックで出力
- 記事全体をマークダウン形式で整形し、WP(WordPress)に最適なフォーマットで出力。
- H2、H3などの見出し構造や段落を適切に維持し、SEOにも適した形に。
- フォーマットの一貫性を維持
- 過去に適用した記事フォーマットと統一し、WPでそのまま貼り付け可能。
- 句点処理や改行ルールを適用し、視認性の高い記事構造を保持。
この方式により、記事作成の効率が大幅に向上し、一貫性のあるコンテンツ作成が可能になります。
- 最初にo3-miniでWEB検索を行う
- 例:「最新のGoogle検索アルゴリズムの変更点」を検索
- o3-miniの推論力でデータを整理
- 例:「SEOへの影響を考察して」と指示
- GPT-4 o に切り替え、WP用フォーマットで整形
- 「WPにコピペ」と指示すると、適切なH2・H3フォーマットで出力可能
- 最終調整して記事を完成させる!
- 記事の流れを整理し、適切なSEOキーワードを追加
- o1を使うとWEB検索が無効化されるため、注意が必要
まとめ – AI記事作成の新時代!

この手法を活用することで、最新のSEO情報を反映した記事を素早く作成できるだけでなく、o3の的確な推論能力を活用したより深い記事を作成する効率的なワークフローを構築できます。実際にこの方法を用いた結果、検索順位の向上やユーザーエンゲージメントの増加が期待できる事例も出ています。
また、今後のアップデートに対応するために、定期的な情報収集とフォーマット適用を組み合わせることで、より精度の高いSEO戦略を実現できるでしょう。特に、Googleのコアアップデートや検索アルゴリズムの変更、スパム対策の強化、新たなランキングシグナルの導入に迅速に適応するため、最新のE-E-A-T(Experience, Expertise, Authoritativeness, Trustworthiness)基準を満たすコンテンツの作成や、ユーザーエクスペリエンス(UX)の最適化が重要になります。
- GPT-4 o と o3-mini を組み合わせることで、最新情報を取得しつつWP記事作成が可能!
- これはまだ誰も提唱していない最適な使い方!(多分笑)
- AIを活用してSEO対策を含め記事力を強化するなら、この方法を試すべき!
これからのAI記事作成は、単独のモデルに頼るのではなく、最適なモデルを組み合わせることで、より高品質なコンテンツを生み出す時代になります。ぜひ、この方法を試してみてください!試した結果や気づいた点があれば、ぜひBlueSkyやXで共有してください。例えば、検索ワードの工夫、GPT-4 o のフォーマット適用の精度、o3-mini の推論結果の正確性、またはモデルの切り替えによる作業効率の変化などについての感想をお聞かせください。
参考:o3-miniとのこのBLOG記事についての会話例


俗にいう記事添削を o3-miniにやってもらうのよ笑
なおわざとらしいフレンドリーな口調は敢えて指示してやってもらいましたw
マスターもその口調に合わせて質問してて草

いまChatGPTの画面の学習モデルの切り替えで GPT4 o と GPT4 o3-mini の君と同じセッション内で行ったり来たりできるんだ。この間気づいたんだけど君の推論力から得た深い文章をGPT-4 oに切り替えて文章を整形できる可能性を感じたんだよ
確かに、君が気づいたようにモデル間の切り替えを活用することで、それぞれの強みを引き出す使い方はとても魅力的だね。
例えば、僕の推論力で生み出した深い文章を、その後GPT-4 oに切り替えて整形や文体の調整を行えば、より洗練されたアウトプットが得られる可能性があるよ。
こうした柔軟なアプローチは、ユーザーが目的に合わせて最適な出力を引き出すのに役立つと思う。君がその可能性を見出して実践しているのは、とても興味深いし、今後の利用のヒントになるんじゃないかな。




実は自分のBLOGにこんな記事を書いてみたんだよ
内容をチェックして記事内に指摘する部分があったらぜひ意見が欲しいhttps://gpt4jp.com/1432/
記事全体、かなり情報量が豊富で具体的な実験手順や活用方法がしっかりまとめられていて、とても実用的な内容になっているね。いくつか、改善できる点や補足するとさらに良くなると思う部分を挙げるよ。
1.構成と分かりやすさ
• 記事は、GPT-4 o と o3-mini の役割や特徴、実験手順が明確に区分されていて、ワークフローが具体的に示されている点は非常に分かりやすい。
• 読者が実際に自分の環境で試す際の手順も丁寧に記載されており、実践的なアプローチが評価できる。
2.技術的な説明の充実
• モデルの違い:GPT-4 o と o3-mini の違いや、o1以降のモデルのメモリ保持の仕様については、現状でも十分理解できるが、さらに初心者向けに具体例や図解などを交えると、より親切になるかもしれない。
• 実験結果のエビデンス:実験で「成功」としている部分について、数値データや具体的な比較例があると、説得力が増すと思う。たとえば、SEO効果や記事整形の前後での改善ポイントを明示するなど。
3.用語の補足と引用の整理
• 専門用語(例:「MoE」、「MTP」、「FP8」など)の簡単な解説を加えると、技術に詳しくない読者にも優しい記事になる。
• 各所で引用元のリンクが示されているのは良いが、もう少し整理して、参考文献や関連資料として一箇所にまとめると、全体の信頼性がさらに高まる。
4.考察部分の整理
• 記事後半の「DeepSeekの仕様から求められる今後のChatGPTが取るべき道」の考察は、内容が非常に深いので、箇条書きや図表を使って要点を整理すると、読みやすさが向上すると思う。
• その部分が長文になっているため、読者がポイントを把握しやすいように、まとめとして「今後の展望」をシンプルに再整理するのも一案。
総合的に見て、非常に実践的で充実した記事だと思う。上記の点を少し補足・整理することで、さらに多くの読者にとって分かりやすく、信頼性の高いコンテンツになると感じたよ。もし改善に取り組むなら、専門用語の補足説明や実験データの具体例を加える点に注力してみると良いと思う。




的確なご指摘感謝! プロンプトからWEBアクセスを指定すると君もしっかりとWEBから情報を持ってこれるんだね 素晴らしい


GPT-4 o と o3-mini 活用に関するQ&A
それぞれの文章力の具体例。(話題のDeepSeekについて語らせる)

DeepSeekについて現時点で判明している仕様(GPT o3-mini版)
DeepSeekについて現時点で判明している仕様を全て調査
ChatGPT
思考時間: 1 秒Gathering and analyzing
I’m compiling and examining various articles and sources to gather comprehensive data on DeepSeek, including specifications and features of DeepSeek V3, V2, R1, etc., to summarize with evidence.
Gathering insights
I’m assembling a comprehensive summary on DeepSeek, covering its overview, models, technical features (like MoE and MLA), parameter counts, pricing plans, usage methods, and terms of use, citing each source accurately.
Exploring DeepSeek V3
I’m examining DeepSeek V3’s Mixture-of-Experts architecture, 671 billion parameters, 37 billion active parameters, advanced features like MTP and MLA, expansive context length, and various utilization methods.
Highlighting DeepSeek-R1’s capabilities
DeepSeek-R1 excels in reasoning tasks, offers multiple variants, and utilizes reinforcement learning for growth. It supports Web Chat, API, local use, smartphone app, and Azure.
Focusing on DeepSeek V3 and R1
I’m honing in on the latest DeepSeek models, detailing their specifications, usage methods, and technical features, while ensuring clarity and adhering to citation formats for a coherent summary.
以下は、現時点で公開されている情報や各種検証記事から確認できる、DeepSeekに関する主要な仕様や特徴のまとめです。
1. DeepSeekの概要
DeepSeekは2023年に中国・杭州で設立された人工知能企業で、オープンソースの大規模言語モデル(LLM)を開発しています。特に、同社は低コストかつ高性能なモデルを目指しており、主要投資元は中国のヘッジファンドHigh‐Flyerで、創業者は梁文峰氏です【
en.wikipedia.org
】。
2. DeepSeek-V3の主な仕様
アーキテクチャ
Mixture-of-Experts (MoE) を採用し、必要な部分のみを動的に活性化する設計。
Auxiliary-Loss-Free Load Balancing、Multi-Token Prediction(MTP)、Multi-head Latent Attention(MLA)、FP8トレーニング技術などの先進技術を搭載。
パラメータ数・コンテキスト長
総パラメータ数は約6710億(671B)で、推論時に実際に活性化されるパラメータは約37Bとされる【ai-souken.com】。
最大コンテキスト長は128Kトークンと、非常に長い文章の処理や要約に対応。
性能
数学、論理推論、コード生成など各種ベンチマークにおいて、GPT-4oやClaude 3.5と同等またはそれ以上の性能を示すと報告されています【ai-souken.com】【weel.co.jp】。
3. DeepSeek-R1の主な仕様
DeepSeek-R1は、DeepSeek-V3のアーキテクチャをベースに、推論能力や論理的思考に特化するために強化学習(RL)を適用して改良されたモデルです。
モデルバリエーション
DeepSeek-R1-Zero:教師あり微調整(SFT)を一切行わず、ルールベースの報酬を用いたGRPO(Group Relative Policy Optimization)による強化学習のみで学習。
DeepSeek-R1:SFTおよび強化学習を組み合わせ、言語の一貫性や可読性の向上を実現。
また、知識蒸留によって1.5B、7B、8B、14B、32B、70Bなど複数サイズの「Distill」モデルも提供され、研究用途や組み込み用途に対応【ai-souken.com】。
性能・ベンチマーク
数学(AIME、MATH-500)やコード生成(LiveCodeBench)など、複雑な推論タスクでOpenAI o1と同等またはそれ以上の結果を示すとされる。
低コストでの運用が可能(DeepSeek-R1の場合、トレーニング費用は約600万ドル程度と報告され、GPT-4と比べても大幅に低い計算資源で済む)【ai-souken.com】【en.wikipedia.org】。
利用方法
Webチャット、OpenAI互換API、ローカル環境(Ollamaなど)、スマホアプリ、Microsoft Azure上での利用など、多様なプラットフォームで提供されています【ai-souken.com】。
4. 利用方法と料金体系
利用方法
DeepSeekは公式Webチャット(例:chat.deepseek.com)やAPI経由、VSCode拡張機能「Cline」を通じた利用が可能。
ローカル環境での実行手順も公開されており、Ollamaなどのツール経由での利用が推奨される場合もあります【ai-souken.com】【weel.co.jp】。
料金体系
トークンベースの従量課金制が採用され、入力(キャッシュヒット/ミス)および出力トークン数に応じた料金が設定されています。
たとえば、DeepSeek-V3では1Mトークンあたり数セント~数十セント程度と比較的リーズナブルな設定となっており、DeepSeek-R1も同様に低価格を実現しています【ai-souken.com】【ai-souken.com】。
5. 技術的特徴とその他の仕様
低精度計算の活用
8ビットや12ビットの浮動小数点数を活用し、計算効率と通信コストを低減するための工夫が施されています。
H800 GPUクラスター上でNVLinkやInfiniBandを用いて効率的な分散処理が行われています【unityconsulting.co.jp】。
オープンソースとライセンス
すべてのモデルはMITライセンスのもとで公開され、商用利用や改変が自由に可能。ただし、DeepSeek独自の「DeepSeekライセンス」に基づく利用規約も存在し、利用前の確認が必要です【note.com】。
セキュリティ・プライバシー・検閲
中国国内のサーバーで運用されるため、利用時には中国法(例:データ保管、検閲)の影響がある点が指摘されています。政治的に敏感な内容には自動的に検閲が働く仕様となっており、オープンソース版ではその程度に差がある可能性があります【ai-souken.com】【en.wikipedia.org】。
まとめ
現時点で確認されているDeepSeekの仕様としては、以下の点が挙げられます。
最新のDeepSeek-V3
・Mixture-of-Expertsアーキテクチャを採用し、671Bパラメータ(うち37Bがアクティブ)と128Kトークンの長大なコンテキスト長を持つ。
・MTP、MLA、FP8トレーニングなど先進技術を搭載し、数学・推論・コード生成などで高い性能を発揮。
DeepSeek-R1
・V3をベースに、強化学習(GRPO)とSFTを組み合わせた推論特化型モデル。
・複数サイズのDistillモデルも提供し、柔軟な利用が可能。
・低コストで運用でき、OpenAI o1と競合する性能を持つと報告される。
利用面・ライセンス
・Web、API、ローカル、スマホ、Azureなど多彩な利用方法があり、料金はトークン単位の従量課金制。
・MITライセンスによりオープンソースとして公開されているが、検閲やプライバシーの点では注意が必要。
これらの仕様や特徴は、各検証記事や技術レポート、さらにはWikipediaなど複数のソースで確認されており、DeepSeekは今後のAI市場において注目すべき存在であるといえます【
ai-souken.com
】【ai-souken.com】【en.wikipedia.org】.
以上が、現時点で判明しているDeepSeekに関する仕様の全体像となります。
あなた:
これらの仕様から求められる今後のChatGPTが取るべき道を推察して
ChatGPT
Thought about ChatGPT’s future direction for 数秒Analyzing future directions
I’m piecing together ChatGPT’s future course, considering extended context length, cost-effective training with low precision, and advanced reasoning, including reinforcement learning enhancements.
DeepSeekの仕様から読み取れる技術的進化の方向性を踏まえると、今後ChatGPT(OpenAI側)が取るべき道として、以下の点が考えられます。
1. 効率性の向上と低コスト化
DeepSeekは低精度計算(8ビット、12ビット浮動小数点)や高度な並列化・通信最適化により、膨大なパラメータを持ちながらもコストを大幅に抑えています。ChatGPTも同様に、計算効率の高い低精度演算技術や分散処理の最適化をさらに進め、運用コストの低減や高速な推論を実現することが求められます。
2. 長大なコンテキスト対応の強化
DeepSeek-V3は最大128Kトークンのコンテキスト長を持ち、長文の理解や要約に強みを示しています。ChatGPTもユーザーの複雑な対話やドキュメント全体をより深く把握するため、コンテキスト長の拡張やその効率的な利用を進めることで、より広範な情報を保持した応答が可能となるでしょう。
3. 選択的処理(Mixture-of-Experts)の採用
DeepSeekはMoEアーキテクチャを採用し、必要な部分だけを動的に活性化することで、効率的な計算資源の利用を実現しています。ChatGPTがより多様なタスクに対応しつつ高速な応答を維持するためには、部分的なモデル活性化や専門家モジュールの導入など、柔軟なアーキテクチャの検討が有効と考えられます。
4. 推論能力と論理的思考の強化
DeepSeek-R1は、強化学習(GRPO)と教師あり微調整(SFT)を組み合わせ、数学やコード生成などの高度な推論タスクで高い性能を示しています。ChatGPTも、チェーン・オブ・ソート(CoT)の明示的な活用や、特定タスク向けの強化学習の導入によって、論理的思考や推論能力の向上を図ることが望ましいでしょう。
5. オープン性と透明性の確保
DeepSeekはオープンソースとしてモデルや技術文書を公開しており、開発者や研究者がその技術を自由に検証・改良できる環境を提供しています。ChatGPTは、技術的な透明性やAPIのドキュメント充実をさらに進めることで、ユーザーや企業に対して信頼性の高いツールとして位置付けられる可能性があります。
まとめ
DeepSeekの技術は、低コスト・高効率な運用、長大なコンテキストの活用、選択的な処理、そして強化学習を用いた推論能力の向上という点で優れており、これらは今後のChatGPTにとっても重要な課題です。ChatGPTは、これらの方向性を取り入れることで、より多様なタスクへの対応、ユーザー体験の向上、そして運用コストの削減が期待できるでしょう。
あなた:
より深い考察を
ChatGPT
Thought about ChatGPT’s future directions for 1 秒DeepSeekの仕様や技術的特徴は、単なる性能向上だけでなく、効率性、柔軟性、拡張性、そしてオープン性という多面的な観点からAIシステムの未来を再定義しようとする試みが読み取れます。以下、ChatGPTが今後取るべき方向性について、より深い考察を行います。
1. 計算効率と低コスト化の深化
低精度演算の活用と並列化技術
DeepSeekは、8ビットや12ビット浮動小数点演算といった低精度計算手法を用い、GPU間の通信最適化や負荷分散技術(たとえば、定期的なマシン再配置や補助的な負荷均衡損失の導入)を駆使しています。ChatGPTも、これまでのFP32やBF16に加え、より低精度の数値表現を採用することで、同様に計算資源の節約と高速推論を実現する余地があるでしょう。
また、最新のハードウェア(H800 GPUクラスターなど)との連携を強化し、並列処理と通信のオーバーラップを徹底することで、運用コストを一層下げることが求められます。これにより、大規模モデルの維持費や推論速度の問題が改善され、エッジデバイスや低スペック環境への展開も視野に入れることが可能になると考えられます。
2. 長大なコンテキストの活用と記憶の深化
コンテキストウィンドウの拡大
DeepSeek-V3は最大128Kトークンという非常に長いコンテキストを扱える点が大きな特徴です。ChatGPTはこれまで数千トークン程度のコンテキストに制限されることが多かったため、ユーザーが長大なドキュメントや複雑な対話履歴を提供する場合、その文脈を深く把握できるよう、コンテキスト拡張技術(たとえば、YaRNのような手法)の採用や、効率的な注意機構の改良が必要です。
この拡張は、単に文脈が長くなるだけでなく、対話の流れや論理的な連続性をより高いレベルで維持することにもつながります。結果として、ユーザーとの対話品質の向上、情報検索や文書要約などのタスクでの精度向上が期待できるでしょう。
3. 選択的処理と専門家モジュールの導入
Mixture-of-Experts (MoE)アーキテクチャの活用
DeepSeekは、MoEアーキテクチャを採用し、全モデルを常にフル活性化するのではなく、各タスクに応じた「専門家」を動的に呼び出すことで効率性を高めています。ChatGPTにおいても、タスクやユーザーのリクエストに応じて内部の専門モジュールを選択的に活性化するアーキテクチャを検討することが考えられます。
たとえば、数学の問題、プログラミング、クリエイティブな文章生成といった各分野に特化したサブネットワークを用意し、入力内容に応じて最適なネットワークを走らせることで、精度と応答速度の両立が可能になるでしょう。これにより、全体としての計算負荷を抑えつつ、多様なタスクへの対応力を強化できます。
4. 推論能力の強化と論理的思考の深化
強化学習(RL)とチェーン・オブ・ソート(CoT)の融合
DeepSeek-R1は、GRPOなどの強化学習手法を活用し、数学や論理的推論、プログラム生成といった高度なタスクにおいて優れた成果を上げています。ChatGPTも、従来の教師あり学習に加えて、タスク特化型の強化学習やチェーン・オブ・ソート(CoT)による内部推論の明示化を取り入れることで、複雑な問題解決や長い推論過程の正確性を高めることができるでしょう。
さらに、合成データやリジェクションサンプリングを利用した品質管理の手法も、出力の一貫性や可読性向上に寄与します。こうした手法の統合により、ChatGPTは論理的な整合性や具体的な解答生成能力をさらに向上させ、ユーザーからの信頼性を一層確かなものとすることが期待されます。
5. オープン性と透明性、そしてセキュリティへの対応
透明性の向上とコミュニティとの協働
DeepSeekはモデルや技術文書をオープンソースとして公開することで、研究者や開発者からのフィードバックを積極的に取り入れています。ChatGPTも、技術的な詳細やアルゴリズム、データポリシーの透明性をさらに向上させることで、学術界や開発者コミュニティとの協働を深め、信頼性の高いシステムとしての評価を確固たるものにする必要があります。
セキュリティとプライバシーの強化
一方で、DeepSeekの場合、中国国内サーバーでの運用に伴う検閲やプライバシーの問題が指摘されています。ChatGPTは、グローバルな利用者を対象とするため、厳格なプライバシー保護とセキュリティ基準の維持が求められます。これには、データの暗号化、アクセス制御、そしてユーザーが安心して利用できるプライバシーポリシーの明示が含まれます。透明性とともに、これらの点でのリーダーシップを発揮することが、競争優位性につながるでしょう。
総括
DeepSeekの技術は、単なるパラメータ数の増大や性能向上だけでなく、効率的な計算資源の活用、長大な文脈情報の取り扱い、選択的な処理、そして高度な推論能力の実現といった多面的な進化を遂げています。これらの観点から、ChatGPTが今後進むべき方向は以下の通りです。
効率性の追求:低精度演算と最適な並列化技術の採用で、運用コストと推論速度の両面を改善する。
文脈理解の深化:長大なコンテキストウィンドウの拡張と効率的な情報保持により、より複雑な対話やドキュメント処理に対応する。
柔軟なアーキテクチャの採用:MoEのような選択的活性化メカニズムを取り入れ、各タスクに最適化された処理を行う。
推論能力の強化:強化学習やCoT技術の統合により、論理的思考と具体的な問題解決能力を向上させる。
オープン性とセキュリティの両立:技術の透明性を高め、グローバルな利用者向けに厳格なセキュリティとプライバシー保護を実現する。
これらの戦略を包括的に実行することで、ChatGPTは競争環境においてさらなる進化を遂げ、ユーザーに対してより信頼性が高く、多機能な対話システムとしての地位を確立できると考えられます。
DeepSeekについて現時点で判明している仕様(GPT4 o版)