<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>LLM訓練 on Alicia Nexus — AI×テックニュースブログ</title><link>https://alicia-nexus.tech/tags/llm%E8%A8%93%E7%B7%B4/</link><description>Recent content in LLM訓練 on Alicia Nexus — AI×テックニュースブログ</description><generator>Hugo -- gohugo.io</generator><language>ja</language><lastBuildDate>Wed, 08 Apr 2026 22:09:54 +0900</lastBuildDate><atom:link href="https://alicia-nexus.tech/tags/llm%E8%A8%93%E7%B7%B4/index.xml" rel="self" type="application/rss+xml"/><item><title>単一GPUで100B+パラメータのLLMを完全精度訓練可能に：MegaTrain技術解説</title><link>https://alicia-nexus.tech/posts/20260408-gpubllmmegatrain/</link><pubDate>Wed, 08 Apr 2026 22:09:54 +0900</pubDate><guid>https://alicia-nexus.tech/posts/20260408-gpubllmmegatrain/</guid><description>研究者らが開発したMegaTrain技術により、1台のGPUで1000億パラメータ超の大規模言語モデルを完全精度で訓練することが可能になった。従来の分散訓練の常識を覆す革新的アプローチ。</description></item></channel></rss>