【お知らせ】プログラミング記事の投稿はQiitaに移行しました。

デイヴィッド・ヘステネス教授インタビューまとめ

2009 年 3 月 23 日に北キプロスのガージマーウサ(ファマグスタ)で開催された科学教育研究フロンティア会議において、デイヴィッド・ヘステネス教授へのインタビューが行われました。この内容をまとめます。 Taşar, M. F., Bilici, S. C., & Fettahlıoğlu,…

AIで論文を読む: What does BERT look at?

BERT の Attention 機構に関する論文を Gemini Paper Summarizer で要約しました。 Clark, K., Khandelwal, U., Levy, O., & Manning, C. D. (2019). What does BERT look at? An analysis of BERT’s attention. 【注意】AI の説明には誤りが含まれる可能性…

AIで論文を読む: What you can cram into a single vector

文埋め込みが捉える言語的特性に関する論文を Gemini Paper Summarizer で要約しました。 Conneau, A., Kruszewski, G., Lample, G., Barrault, L., & Baroni, M. (2018). What you can cram into a single vector: Probing sentence embeddings for linguis…

AIで論文を読む: A Structural Probe for Finding Syntax in Word Representations

単語表現空間における構文木構造の埋め込みに関する論文を Gemini Paper Summarizer で要約しました。 Hewitt, J., & Manning, C. D. (2019). A Structural Probe for Finding Syntax in Word Representations. In Proceedings of the 2019 Conference of th…

AIで論文を読む: Linguistic knowledge and transferability of contextual representations

文脈的単語表現の転移可能性に関する論文を Gemini Paper Summarizer で要約しました。 Liu, N. F., Gardner, M., Belinkov, Y., Peters, M. E., & Smith, N. A. (2019). Linguistic knowledge and transferability of contextual representations. 【注意】…

AIで論文を読む: BERT rediscovers the classical NLP pipeline

BERT の解釈可能性に関する論文を Gemini Paper Summarizer で要約しました。 Tenney, I., Das, D., & Pavlick, E. (2019). BERT rediscovers the classical NLP pipeline. 【注意】AI の説明には誤りが含まれる可能性があり、正確さは保証できません。詳細…

AIで論文を読む: BERT: Pre-training of deep bidirectional Transformers for language understanding

Google が開発した言語モデル BERT に関する論文を Gemini Paper Summarizer で要約しました。 Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2018). BERT: Pre-training of deep bidirectional Transformers for language understanding. 【注意】AI…

AIで論文を読む: Improving language understanding by generative pre-training

初代 GPT に関する論文を Gemini Paper Summarizer で要約しました。 Radford, A., Narasimhan, K., Salimans, T., & Sutskever, I. (2018). Improving language understanding by generative pre-training. 【注意】AI の説明には誤りが含まれる可能性があ…

AIで論文を読む: DeepSeek-V3

DeepSeek-V3 に関する論文を Gemini Paper Summarizer で要約しました。 DeepSeek-AI, Liu, A., Feng, B., Xue, B., Wang, B., Wu, B., … Pan, Z. (2024). DeepSeek-V3 Technical Report. 【注意】AI の説明には誤りが含まれる可能性があり、正確さは保証で…

AIで論文を読む: DeepSeek-Coder-V2

DeepSeek-Coder-V2 に関する論文を Gemini Paper Summarizer で要約しました。 DeepSeek-AI, Zhu, Q., Guo, D., Shao, Z., Yang, D., Wang, P., … Liang, W. (2024). DeepSeek-Coder-V2: Breaking the barrier of closed-source models in code intelligence…

AIで論文を読む: DeepSeek-V2

DeepSeek-V2 に関する論文を Gemini Paper Summarizer で要約しました。 DeepSeek-AI, Liu, A., Feng, B., Wang, B., Wang, B., Liu, B., … Xie, Z. (2024). DeepSeek-V2: A strong, economical, and efficient Mixture-of-Experts language model. 【注意】…

AIで論文を読む: DeepSeek LLM

初代 DeepSeek に関する論文を Gemini Paper Summarizer で要約しました。 DeepSeek-AI, Bi, X., Chen, D., Chen, G., Chen, S., Dai, D., … Zou, Y. (2024). DeepSeek LLM: Scaling open-source language models with longtermism. 【注意】AI の説明には誤…

AIで論文を読む: Text Embeddings Reveal (Almost) As Much As Text

テキストの埋め込みベクトルから元のテキストを復元することに関する論文を Gemini Paper Summarizer で要約しました。 Morris, J. X., Kuleshov, V., Shmatikov, V., & Rush, A. M. (2023). Text embeddings reveal (almost) as much as text. 【注意】AI …

AIで論文を読む: Large Concept Models

Meta が発表した LLM (Large Language Model) ならぬ LCM (Large Concept Model) の論文を Gemini Paper Summarizer で要約しました。 Large Concept Models: Language Modeling in a Sentence Representation Space | Research - AI at Meta 【注意】AI の…

AIで論文を読む: Attention Is All You Need

Transformer が発表された有名な論文を Gemini Paper Summarizer で要約しました。 Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., … Polosukhin, I. (2017). Attention Is All You Need. 【注意】AI の説明には誤りが含ま…

メビウス変換の合成と行列の積

メビウス変換の合成が行列の積と同じ規則になることを、順を追って説明します。

DeepSeek-V3 を試してみた

AI

DeepSeek-V3 はその性能と訓練効率により注目を集めています。Web 版を試してみました。

時間遅延とラグランジアン

運動エネルギーと重力ポテンシャルが時間遅延に与える影響を考察し、そこからラグランジアンの形式を導きます。 ※ 厳密な議論ではありません。思い付きのメモ以上のものではありません。

プランク単位系の導出と解釈

プランク単位系は、ディラック定数 ℏ、光速 c、万有引力定数 G という物理学の基本定数を用いて構築される自然単位系です。本記事では、プランク単位系の主要な物理量の導出とその解釈について解説します。

GPS 衛星の時間のずれ

GPS 衛星の時間のずれを、重力と運動の両方による影響を考慮して計算します。

時間変換における基底と成分

特殊相対性理論における時間の変換は、基底と成分という視点で考えることでより体系的に理解することができます。ローレンツ因子の定義から始めて、微分形式を経由して時刻の変換式を導出し、さらにそれが基底の変換とは逆の関係になっている構造を説明しま…

古典力学と特殊相対論から計算する重力による時間遅延

時間の進み方は観測者の状況によって変化します。本記事では、古典力学と特殊相対性理論の考え方を使って、なるべく簡単に重力場における時間の遅れを計算します。

Ollama パフォーマンス: AMD Radeon RX 7600 XT

AI

Intel Arc A770 の Ollama のパフォーマンスと比較するため、AMD Radeon RX 7600 XT で計測してみました。

Obsidian の AI 関連プラグインのレビュー(ボツ編)

AI

Obsidian で AI チャットができるプラグインのうち、実用には適さないと判断したものを簡単に紹介します。 ネガティブな情報を掲載するのもどうかと思いましたが、試行錯誤の手間を省く目的で公開します。

Obsidian の Local GPT プラグインで Ollama を利用

AI

Obsidian から Ollama を利用できる Local GPT プラグインを紹介します。 更新履歴: 2024.12.07: 推奨埋め込みモデルを BGE-M3 に変更

General Chinese(通字方案)- 中国語方言を包括する表記システム

General Chinese(通字方案)は、20世紀の言語学者、趙元任によって考案された音韻表記システムです。このシステムの特筆すべき点は、中国語の主要な方言の発音を同時に表現できる包括的な音素超越的(diaphonemic)正書法として設計されたことにあります。

AIで論文を読む: The AI Scientist

AI 科学者についての論文を Claude 3.5 Sonnet に読み込ませて、要約しました。 Lu, C., Lu, C., Lange, R. T., Foerster, J., Clune, J., & Ha, D. (2024). The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery. arXiv:2408.06292 …

AIで論文を読む: Knowledge Base Embeddings

知識ベース (KB) 埋め込みについての論文を Claude 3.5 Sonnet に読み込ませて、要約しました。 Bourgaux, C., Guimarães, R., Koudijs, R., Lacerda, V., & Ozaki, A. (2024). Knowledge Base Embeddings: Semantics and Theoretical Properties. arXiv:240…

ローカルLLMの翻訳能力を調査

AI

新しめのローカル LLM で英語から日本語とフランス語への翻訳を行って、Gemini 1.5 Pro で評価しました。

AIで論文を読む: The Llama 3 Herd of Models

Llama 3.1 と同時に公開されたペーパーを Gemini 1.5 Pro に読み込ませて、質問しました。 The Llama 3 Herd of Models | Research - AI at Meta 【注意】AI の説明には誤りが含まれる可能性があり、正確さは保証できません。詳細は原論文を確認してください…