AI
Meta が発表した脳波から文章を解読する論文を Gemini Paper Summarizer で要約して、図や表を手動で追加しました。 Brain-to-Text Decoding: A Non-invasive Approach via Typing | Research - AI at Meta 参考 Metaが深層学習「Brain2Qwerty」を発表、脳波…
一冊の本からの機械翻訳に関する論文を Gemini Paper Summarizer で要約しました。 Tanzer, G., Suzgun, M., Visser, E., Jurafsky, D., & Melas-Kyriazi, L. (2023). A Benchmark for Learning to Translate a New Language from One Grammar Book. GitHub …
記号知識蒸留に関する論文を Gemini Paper Summarizer で要約しました。 West, P., Bhagavatula, C., Hessel, J., Hwang, J., Jiang, L., Le Bras, R., … Choi, Y. (2022, July). Symbolic Knowledge Distillation: from General Language Models to Commons…
DeepSeek-R1 に関する論文を Gemini Paper Summarizer で要約しました。 DeepSeek-AI, Guo, D., Yang, D., Zhang, H., Song, J., Zhang, R., … Zhang, Z. (2025). DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning. 【…
BERT の Attention 機構に関する論文を Gemini Paper Summarizer で要約しました。 Clark, K., Khandelwal, U., Levy, O., & Manning, C. D. (2019). What does BERT look at? An analysis of BERT’s attention. 【注意】AI の説明には誤りが含まれる可能性…
文埋め込みが捉える言語的特性に関する論文を Gemini Paper Summarizer で要約しました。 Conneau, A., Kruszewski, G., Lample, G., Barrault, L., & Baroni, M. (2018). What you can cram into a single vector: Probing sentence embeddings for linguis…
単語表現空間における構文木構造の埋め込みに関する論文を Gemini Paper Summarizer で要約しました。 Hewitt, J., & Manning, C. D. (2019). A Structural Probe for Finding Syntax in Word Representations. In Proceedings of the 2019 Conference of th…
文脈的単語表現の転移可能性に関する論文を Gemini Paper Summarizer で要約しました。 Liu, N. F., Gardner, M., Belinkov, Y., Peters, M. E., & Smith, N. A. (2019). Linguistic knowledge and transferability of contextual representations. 【注意】…
BERT の解釈可能性に関する論文を Gemini Paper Summarizer で要約しました。 Tenney, I., Das, D., & Pavlick, E. (2019). BERT rediscovers the classical NLP pipeline. 【注意】AI の説明には誤りが含まれる可能性があり、正確さは保証できません。詳細…
Google が開発した言語モデル BERT に関する論文を Gemini Paper Summarizer で要約しました。 Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2018). BERT: Pre-training of deep bidirectional Transformers for language understanding. 【注意】AI…
初代 GPT に関する論文を Gemini Paper Summarizer で要約しました。 Radford, A., Narasimhan, K., Salimans, T., & Sutskever, I. (2018). Improving language understanding by generative pre-training. 【注意】AI の説明には誤りが含まれる可能性があ…
DeepSeek-V3 に関する論文を Gemini Paper Summarizer で要約しました。 DeepSeek-AI, Liu, A., Feng, B., Xue, B., Wang, B., Wu, B., … Pan, Z. (2024). DeepSeek-V3 Technical Report. 【注意】AI の説明には誤りが含まれる可能性があり、正確さは保証で…
DeepSeek-Coder-V2 に関する論文を Gemini Paper Summarizer で要約しました。 DeepSeek-AI, Zhu, Q., Guo, D., Shao, Z., Yang, D., Wang, P., … Liang, W. (2024). DeepSeek-Coder-V2: Breaking the barrier of closed-source models in code intelligence…
DeepSeek-V2 に関する論文を Gemini Paper Summarizer で要約しました。 DeepSeek-AI, Liu, A., Feng, B., Wang, B., Wang, B., Liu, B., … Xie, Z. (2024). DeepSeek-V2: A strong, economical, and efficient Mixture-of-Experts language model. 【注意】…
初代 DeepSeek に関する論文を Gemini Paper Summarizer で要約しました。 DeepSeek-AI, Bi, X., Chen, D., Chen, G., Chen, S., Dai, D., … Zou, Y. (2024). DeepSeek LLM: Scaling open-source language models with longtermism. 【注意】AI の説明には誤…
テキストの埋め込みベクトルから元のテキストを復元することに関する論文を Gemini Paper Summarizer で要約しました。 Morris, J. X., Kuleshov, V., Shmatikov, V., & Rush, A. M. (2023). Text embeddings reveal (almost) as much as text. 【注意】AI …
Meta が発表した LLM (Large Language Model) ならぬ LCM (Large Concept Model) の論文を Gemini Paper Summarizer で要約しました。 Large Concept Models: Language Modeling in a Sentence Representation Space | Research - AI at Meta 【注意】AI の…
Transformer が発表された有名な論文を Gemini Paper Summarizer で要約しました。 Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., … Polosukhin, I. (2017). Attention Is All You Need. 【注意】AI の説明には誤りが含ま…
DeepSeek-V3 はその性能と訓練効率により注目を集めています。Web 版を試してみました。
Intel Arc A770 の Ollama のパフォーマンスと比較するため、AMD Radeon RX 7600 XT で計測してみました。
Obsidian で AI チャットができるプラグインのうち、実用には適さないと判断したものを簡単に紹介します。 ネガティブな情報を掲載するのもどうかと思いましたが、試行錯誤の手間を省く目的で公開します。
Obsidian から Ollama を利用できる Local GPT プラグインを紹介します。 更新履歴: 2024.12.07: 推奨埋め込みモデルを BGE-M3 に変更
AI 科学者についての論文を Claude 3.5 Sonnet に読み込ませて、要約しました。 Lu, C., Lu, C., Lange, R. T., Foerster, J., Clune, J., & Ha, D. (2024). The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery. arXiv:2408.06292 …
知識ベース (KB) 埋め込みについての論文を Claude 3.5 Sonnet に読み込ませて、要約しました。 Bourgaux, C., Guimarães, R., Koudijs, R., Lacerda, V., & Ozaki, A. (2024). Knowledge Base Embeddings: Semantics and Theoretical Properties. arXiv:240…
新しめのローカル LLM で英語から日本語とフランス語への翻訳を行って、Gemini 1.5 Pro で評価しました。
Llama 3.1 と同時に公開されたペーパーを Gemini 1.5 Pro に読み込ませて、質問しました。 The Llama 3 Herd of Models | Research - AI at Meta 【注意】AI の説明には誤りが含まれる可能性があり、正確さは保証できません。詳細は原論文を確認してください…
素粒子の世代を表現論的に解き明かすというアプローチがあり、最新の論文が公開されました。 素粒子の3世代構造が自然に統一される6次元ゲージ・ヒッグス大統一理論を発見|大阪公立大学 Maru, N., & Nago, R. (2024). Attempt at constructing a model of…
Google の NotebookLM に Wikipedia の多元数に関する記事を読ませてみました。
6 年前から読もうと思っていたケーラーの論文をようやく入手しました。経緯 Kähler, v. (2011). Der innere Differentialkalkül. In: Segre, B. (eds) Forme differenziali e loro integrali. C.I.M.E. Summer Schools, vol 22. Springer, Berlin, Heidelber…
次の論文を Claude 3 Sonnet に読み込ませて、質問しました。 Razzhigaev, A., Mikhalchuk, M., Goncharova, E., Gerasimenko, N., Oseledets, I., Dimitrov, D., & Kuznetsov, A. (2024). Your Transformer is Secretly Linear. Retrieved from http://arxi…