<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>Large Language Model on Jinying Tech Blog</title>
    <link>https://chejinying.com/tech/tags/large-language-model/</link>
    <description>Recent content in Large Language Model on Jinying Tech Blog</description>
    <generator>Hugo</generator>
    <language>en-us</language>
    <lastBuildDate>Thu, 22 Jan 2026 11:00:00 +0800</lastBuildDate>
    <atom:link href="https://chejinying.com/tech/tags/large-language-model/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>LLM Abbreviations Glossary</title>
      <link>https://chejinying.com/tech/posts/llm/abbreviations/</link>
      <pubDate>Thu, 22 Jan 2026 11:00:00 +0800</pubDate>
      <guid>https://chejinying.com/tech/posts/llm/abbreviations/</guid>
      <description>&lt;p&gt;A quick reference for common abbreviations in the LLM (Large Language Model) domain.&lt;/p&gt;&#xA;&lt;h1 id=&#34;training--techniques&#34;&gt;Training &amp;amp; Techniques&lt;/h1&gt;&#xA;&lt;table&gt;&#xA;  &lt;thead&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;th&gt;Abbreviation&lt;/th&gt;&#xA;          &lt;th&gt;Full Name&lt;/th&gt;&#xA;          &lt;th&gt;What It Is&lt;/th&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/thead&gt;&#xA;  &lt;tbody&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;SFT&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Supervised Fine-Tuning&lt;/td&gt;&#xA;          &lt;td&gt;Training on curated question-answer pairs&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;RL&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Reinforcement Learning&lt;/td&gt;&#xA;          &lt;td&gt;Learning by trial and reward signals&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;RLHF&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Reinforcement Learning from Human Feedback&lt;/td&gt;&#xA;          &lt;td&gt;RL where humans rank outputs to guide training&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;DPO&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Direct Preference Optimization&lt;/td&gt;&#xA;          &lt;td&gt;Simpler alternative to RLHF, no reward model needed&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;GRPO&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Group Relative Policy Optimization&lt;/td&gt;&#xA;          &lt;td&gt;RL technique used in reasoning models (DeepSeek)&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;PPO&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Proximal Policy Optimization&lt;/td&gt;&#xA;          &lt;td&gt;Popular RL algorithm for training LLMs&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;LoRA&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Low-Rank Adaptation&lt;/td&gt;&#xA;          &lt;td&gt;Memory-efficient fine-tuning technique&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;QLoRA&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Quantized LoRA&lt;/td&gt;&#xA;          &lt;td&gt;LoRA + 4-bit quantization for even less memory&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/tbody&gt;&#xA;&lt;/table&gt;&#xA;&lt;h1 id=&#34;architecture--models&#34;&gt;Architecture &amp;amp; Models&lt;/h1&gt;&#xA;&lt;table&gt;&#xA;  &lt;thead&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;th&gt;Abbreviation&lt;/th&gt;&#xA;          &lt;th&gt;Full Name&lt;/th&gt;&#xA;          &lt;th&gt;What It Is&lt;/th&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/thead&gt;&#xA;  &lt;tbody&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;LLM&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Large Language Model&lt;/td&gt;&#xA;          &lt;td&gt;The models like GPT, Claude, Llama&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;NLP&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Natural Language Processing&lt;/td&gt;&#xA;          &lt;td&gt;Field of AI dealing with human language&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;RNN&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Recurrent Neural Network&lt;/td&gt;&#xA;          &lt;td&gt;Older architecture before Transformers&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;LSTM&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Long Short-Term Memory&lt;/td&gt;&#xA;          &lt;td&gt;Improved RNN that handles longer sequences&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;GRU&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Gated Recurrent Unit&lt;/td&gt;&#xA;          &lt;td&gt;Simplified version of LSTM&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;MLP&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Multilayer Perceptron&lt;/td&gt;&#xA;          &lt;td&gt;Basic fully-connected neural network&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;GPT&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Generative Pre-trained Transformer&lt;/td&gt;&#xA;          &lt;td&gt;OpenAI&amp;rsquo;s model architecture&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;MoE&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Mixture of Experts&lt;/td&gt;&#xA;          &lt;td&gt;Architecture where only some &amp;ldquo;experts&amp;rdquo; activate per token&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;MQA&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Multi-Query Attention&lt;/td&gt;&#xA;          &lt;td&gt;Attention optimization sharing key-value heads&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;GQA&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Grouped-Query Attention&lt;/td&gt;&#xA;          &lt;td&gt;Middle ground between MHA and MQA&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;MHA&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Multi-Head Attention&lt;/td&gt;&#xA;          &lt;td&gt;Standard attention with multiple heads&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/tbody&gt;&#xA;&lt;/table&gt;&#xA;&lt;h1 id=&#34;applications--deployment&#34;&gt;Applications &amp;amp; Deployment&lt;/h1&gt;&#xA;&lt;table&gt;&#xA;  &lt;thead&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;th&gt;Abbreviation&lt;/th&gt;&#xA;          &lt;th&gt;Full Name&lt;/th&gt;&#xA;          &lt;th&gt;What It Is&lt;/th&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/thead&gt;&#xA;  &lt;tbody&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;RAG&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Retrieval-Augmented Generation&lt;/td&gt;&#xA;          &lt;td&gt;Combining LLMs with external knowledge retrieval&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;API&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Application Programming Interface&lt;/td&gt;&#xA;          &lt;td&gt;Way to access LLMs over the internet&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;VRAM&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Video Random Access Memory&lt;/td&gt;&#xA;          &lt;td&gt;GPU memory needed to run models&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;MCP&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Model Context Protocol&lt;/td&gt;&#xA;          &lt;td&gt;Standard for connecting LLMs to external tools&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;A2A&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Agent-to-Agent Protocol&lt;/td&gt;&#xA;          &lt;td&gt;Standard for agent interoperability&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/tbody&gt;&#xA;&lt;/table&gt;&#xA;&lt;h1 id=&#34;evaluation--benchmarks&#34;&gt;Evaluation &amp;amp; Benchmarks&lt;/h1&gt;&#xA;&lt;table&gt;&#xA;  &lt;thead&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;th&gt;Abbreviation&lt;/th&gt;&#xA;          &lt;th&gt;Full Name&lt;/th&gt;&#xA;          &lt;th&gt;What It Is&lt;/th&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/thead&gt;&#xA;  &lt;tbody&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;MMLU&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Massive Multitask Language Understanding&lt;/td&gt;&#xA;          &lt;td&gt;Popular benchmark for testing LLMs&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;CoT&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Chain-of-Thought&lt;/td&gt;&#xA;          &lt;td&gt;Prompting technique for step-by-step reasoning&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;PRM&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Process Reward Model&lt;/td&gt;&#xA;          &lt;td&gt;Model that scores intermediate reasoning steps&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/tbody&gt;&#xA;&lt;/table&gt;&#xA;&lt;h1 id=&#34;quantization--optimization&#34;&gt;Quantization &amp;amp; Optimization&lt;/h1&gt;&#xA;&lt;table&gt;&#xA;  &lt;thead&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;th&gt;Abbreviation&lt;/th&gt;&#xA;          &lt;th&gt;Full Name&lt;/th&gt;&#xA;          &lt;th&gt;What It Is&lt;/th&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/thead&gt;&#xA;  &lt;tbody&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;GGUF&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;GPT-Generated Unified Format&lt;/td&gt;&#xA;          &lt;td&gt;File format for quantized models (llama.cpp)&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;GPTQ&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;GPT Quantization&lt;/td&gt;&#xA;          &lt;td&gt;Post-training quantization method&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;AWQ&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Activation-aware Weight Quantization&lt;/td&gt;&#xA;          &lt;td&gt;Quantization preserving important weights&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;FP16&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;16-bit Floating Point&lt;/td&gt;&#xA;          &lt;td&gt;Half-precision number format&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;FP32&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;32-bit Floating Point&lt;/td&gt;&#xA;          &lt;td&gt;Full-precision number format&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;INT8&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;8-bit Integer&lt;/td&gt;&#xA;          &lt;td&gt;Low-precision integer format&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/tbody&gt;&#xA;&lt;/table&gt;&#xA;&lt;h1 id=&#34;data--preprocessing&#34;&gt;Data &amp;amp; Preprocessing&lt;/h1&gt;&#xA;&lt;table&gt;&#xA;  &lt;thead&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;th&gt;Abbreviation&lt;/th&gt;&#xA;          &lt;th&gt;Full Name&lt;/th&gt;&#xA;          &lt;th&gt;What It Is&lt;/th&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/thead&gt;&#xA;  &lt;tbody&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;BoW&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Bag-of-Words&lt;/td&gt;&#xA;          &lt;td&gt;Text representation ignoring word order&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;      &lt;tr&gt;&#xA;          &lt;td&gt;&lt;strong&gt;TF-IDF&lt;/strong&gt;&lt;/td&gt;&#xA;          &lt;td&gt;Term Frequency-Inverse Document Frequency&lt;/td&gt;&#xA;          &lt;td&gt;Text weighting technique&lt;/td&gt;&#xA;      &lt;/tr&gt;&#xA;  &lt;/tbody&gt;&#xA;&lt;/table&gt;</description>
    </item>
  </channel>
</rss>
