Research
認知地図(Cognitive map)とは人間の海馬によって生成される抽象的な地図です。本稿では認知地図の性質や研究について簡潔に説明します。
DenseNetは2016年に発表された論文"Densely Connected Convolutional Networks"で登場したCNNアーキテクチャで、スキップ接続を多用することで効率よく学習を進めることが出来ます。本記事では、DenseNetの構造とその特徴を解説していきます。
エッジAIは端末上で動作するAIであり、現代では多くのエッジAIが開発されています。 エッジAIの特徴と実社会での活用例を自動運転、スマートファクトリー、農業の分野から解説し、今後のLLMの進化とそれにおける社会の変容の予測を詳しく解説します。
ビットコインとイーサリアムはブロックチェーンを用いた暗号資産です。 本記事ではブロックチェーンの特徴と構造を解説し、これらの暗号資産の非中央集権性から及ぼされる特徴と運用や今後の仮想通貨の動向について考察します。
VAEは2013年に発表された論文"Auto-Encoding Variational Bayes" で登場した確率的なマッピングを行う機能を追加したオートエンコーダです。本記事ではVAEがどのようなマッピングを行い、 どのような特徴を持っているのか前提知識を含めて説明します。
ResNetは2015年にMicrosoftによって発表された論文 "Deep Residual Learning for Image Recognition" に掲載された、CNNに残差接続の概念を取り入れたモデルです。本記事では残差接続の特徴と ResNetが克服した深層学習での問題点を解説します。
U-Netは2015年にOlaf Ronneberger氏らが発表した論文 "U-Net: Convolutional Networks for Biomedical Image Segmentation"に登場したCNNを使用した 画像のセグメンテーションタスクに特化したモデルです。 本記事ではU-Netのアーキテクチャを解説しながらどのような特徴があり、使用されているのか解説していきます。
Transformerは2020年にGoogleが発表した論文 "An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale" に掲載されたTransformerの新しいモデルです。本記事ではVision Transformerがどのようなタスクを中心に活用され、どのような特徴を持っているのか、包括的に解説します。
Multi Head Attentionブロックは2017年にGoogleが発表した論文 "Attention Is All You Need "で登場した、Transformerの中核を担うブロックです。 本記事では内部でどのような処理が行われているか解説していきます。
Transformerは2017年にGoogleが発表した論文 "Attention Is All You Need " に掲載されたニューラルネットワークのモデルです。現在では、画像、音楽等の認識や医療分野にも使用されている優れた解析モデルです。 本記事ではAIを実用化段階に躍進させたモデルであるTransformerを、その内部構造に併せて解説していきます。