<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>未分类 - 南极滑稽的博客</title>
	<atom:link href="https://blog.nanjihuaji.top/category/uncategorized/feed/" rel="self" type="application/rss+xml" />
	<link>https://blog.nanjihuaji.top</link>
	<description>一个学术垃圾的博客</description>
	<lastBuildDate>Wed, 24 Dec 2025 15:24:34 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://blog.nanjihuaji.top/wp-content/uploads/2024/08/cropped-Cache_45925d60c206ddd8-150x150.jpg</url>
	<title>未分类 - 南极滑稽的博客</title>
	<link>https://blog.nanjihuaji.top</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>在20岁的最后一小时的感慨</title>
		<link>https://blog.nanjihuaji.top/2025/12/24/%e5%9c%a820%e5%b2%81%e7%9a%84%e6%9c%80%e5%90%8e%e4%b8%80%e5%b0%8f%e6%97%b6%e7%9a%84%e6%84%9f%e6%85%a8/</link>
					<comments>https://blog.nanjihuaji.top/2025/12/24/%e5%9c%a820%e5%b2%81%e7%9a%84%e6%9c%80%e5%90%8e%e4%b8%80%e5%b0%8f%e6%97%b6%e7%9a%84%e6%84%9f%e6%85%a8/#respond</comments>
		
		<dc:creator><![CDATA[Nanjihuaji]]></dc:creator>
		<pubDate>Wed, 24 Dec 2025 15:24:33 +0000</pubDate>
				<category><![CDATA[未分类]]></category>
		<guid isPermaLink="false">https://blog.nanjihuaji.top/?p=580</guid>

					<description><![CDATA[<p>现在是2025年12月24日，23: 24。 真不敢相信我马上就要告别20岁了。</p>
<p>The post <a href="https://blog.nanjihuaji.top/2025/12/24/%e5%9c%a820%e5%b2%81%e7%9a%84%e6%9c%80%e5%90%8e%e4%b8%80%e5%b0%8f%e6%97%b6%e7%9a%84%e6%84%9f%e6%85%a8/">在20岁的最后一小时的感慨</a> first appeared on <a href="https://blog.nanjihuaji.top">南极滑稽的博客</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>现在是2025年12月24日，23: 24。</p>



<p>真不敢相信我马上就要告别20岁了。</p>



<p></p>



<p></p><p>The post <a href="https://blog.nanjihuaji.top/2025/12/24/%e5%9c%a820%e5%b2%81%e7%9a%84%e6%9c%80%e5%90%8e%e4%b8%80%e5%b0%8f%e6%97%b6%e7%9a%84%e6%84%9f%e6%85%a8/">在20岁的最后一小时的感慨</a> first appeared on <a href="https://blog.nanjihuaji.top">南极滑稽的博客</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://blog.nanjihuaji.top/2025/12/24/%e5%9c%a820%e5%b2%81%e7%9a%84%e6%9c%80%e5%90%8e%e4%b8%80%e5%b0%8f%e6%97%b6%e7%9a%84%e6%84%9f%e6%85%a8/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>DSP学习笔记——抽样、内插与抽样、抽样后的离散序列及其角频率</title>
		<link>https://blog.nanjihuaji.top/2025/03/10/dsp%e5%ad%a6%e4%b9%a0%e7%ac%94%e8%ae%b0-%e6%8a%bd%e6%a0%b7%e3%80%81%e5%86%85%e6%8f%92%e4%b8%8e%e6%8a%bd%e6%a0%b7%e3%80%81%e6%8a%bd%e6%a0%b7%e5%90%8e%e7%9a%84%e7%a6%bb%e6%95%a3/</link>
					<comments>https://blog.nanjihuaji.top/2025/03/10/dsp%e5%ad%a6%e4%b9%a0%e7%ac%94%e8%ae%b0-%e6%8a%bd%e6%a0%b7%e3%80%81%e5%86%85%e6%8f%92%e4%b8%8e%e6%8a%bd%e6%a0%b7%e3%80%81%e6%8a%bd%e6%a0%b7%e5%90%8e%e7%9a%84%e7%a6%bb%e6%95%a3/#respond</comments>
		
		<dc:creator><![CDATA[Nanjihuaji]]></dc:creator>
		<pubDate>Mon, 10 Mar 2025 12:16:57 +0000</pubDate>
				<category><![CDATA[未分类]]></category>
		<guid isPermaLink="false">https://blog.nanjihuaji.top/?p=408</guid>

					<description><![CDATA[<p>DSP真是太坏了！</p>
<p>The post <a href="https://blog.nanjihuaji.top/2025/03/10/dsp%e5%ad%a6%e4%b9%a0%e7%ac%94%e8%ae%b0-%e6%8a%bd%e6%a0%b7%e3%80%81%e5%86%85%e6%8f%92%e4%b8%8e%e6%8a%bd%e6%a0%b7%e3%80%81%e6%8a%bd%e6%a0%b7%e5%90%8e%e7%9a%84%e7%a6%bb%e6%95%a3/">DSP学习笔记——抽样、内插与抽样、抽样后的离散序列及其角频率</a> first appeared on <a href="https://blog.nanjihuaji.top">南极滑稽的博客</a>.</p>]]></description>
										<content:encoded><![CDATA[<div class="wp-block-post-excerpt"><p class="wp-block-post-excerpt__excerpt">DSP真是太坏了！</p><p class="wp-block-post-excerpt__more-text"><a class="wp-block-post-excerpt__more-link" href="https://blog.nanjihuaji.top/2025/03/10/dsp%e5%ad%a6%e4%b9%a0%e7%ac%94%e8%ae%b0-%e6%8a%bd%e6%a0%b7%e3%80%81%e5%86%85%e6%8f%92%e4%b8%8e%e6%8a%bd%e6%a0%b7%e3%80%81%e6%8a%bd%e6%a0%b7%e5%90%8e%e7%9a%84%e7%a6%bb%e6%95%a3/">阅读更多</a></p></div>


<p>约定：本文使用大写希腊字母<a href="https://zh.wikipedia.org/wiki/%CE%A9">Ω</a>表示<strong>模拟角频率</strong>，使用小写希腊字母ω表示<strong>数字角频率或基波角频率</strong>。</p>



<h2 class="wp-block-heading">抽样</h2>



<h3 class="wp-block-heading">最常用的抽样序列——周期冲激函数（Dirac 梳状函数）</h3>



<p>我们先来定义周期冲激函数：</p>



<p>对于模拟信号 f(t) ，取抽样序列 p(t) ，可得抽样序列：</p>



<div class="wp-block-wp-mathjax-block mathjax">
f_s(t)=f(t)·p(t)
</div>



<p><strong>理想抽样下，取周期冲激函数为 p(t)</strong>，其满足：</p>



<div class="wp-block-wp-mathjax-block mathjax">
\delta_T(t)=\sum_{ n = - \infty} ^ {  + \infty} \delta(t-nT) \leftrightarrow \omega \delta _ {\omega} (\Omega)
</div>



<p>其中</p>



<div class="wp-block-wp-mathjax-block mathjax">
\omega=\frac{T}{2\pi}
</div>



<p>对周期冲激序列做 Fourier 展开，得</p>



<div class="wp-block-wp-mathjax-block mathjax">
\delta_T(t)=\frac{1}{T}\sum_{n = -\infty}^{+\infty}e^{jn \omega t}
</div>



<p>类似地，其 Fourier 变换的 Fourier 展开为</p>



<div class="wp-block-wp-mathjax-block mathjax">
\omega \delta _ {\omega} (\Omega) =\omega · \frac{1}{\omega}\sum_{n=-\infty}^{+\infty}e^{jnT\Omega}=\sum_{n=-\infty}^{+\infty}e^{jnT\Omega}
</div>



<p>使用周期冲激函数抽样能够在频域分析上带来方便（因为冲激函数的 Fourier 变换是 1），这样，之后通过内插公式回复原始信号时，Sa函数的移位求和前不会被其他函数加权。但是，由于周期冲激函数毕竟是理想模型，实际抽样时如果采取矩形抽样，则会引入Sa函数作为加权项，让内插公式的形式变得复杂。</p>



<h3 class="wp-block-heading">抽样与内插</h3>



<p>如上，抽样的本质是得到了一个离散序列</p>



<div class="wp-block-wp-mathjax-block mathjax">
x[nT]=f_s(t)|_{t=nT}=f(t)·p(t)
</div>



<p>我们在时域上已经不能做什么了，不妨在频域上分析一下这个函数，对f_s(t)做 Fourier 变换，可知</p>



<div class="wp-block-wp-mathjax-block mathjax">
f(t)·p(t) \leftrightarrow F(j\Omega)*P(j\Omega)=F(j\Omega)*\omega \delta _{\omega} (\Omega)
</div>



<p>事实上，这是F(j\Omega)的周期延拓，亦即</p>



<div class="wp-block-wp-mathjax-block mathjax">
\omega\sum_{n=-\infty}^{+\infty}F(j(\Omega - n \omega))\delta(\Omega-n\omega)
</div>



<p>由此，我们就完成了对信号的抽样。现在考虑信号的恢复，由于频域上是对F(j\Omega)的周期延拓，而一个周期内就已经承载了全部信息（事实上，时域无限则频谱有限，时域有限则频谱无限，不过我们姑且不管这个），因此，我们考虑用理想低通滤波器，只留下第一个周期内的信息，理想低通滤波器的定义为</p>



<div class="wp-block-wp-mathjax-block mathjax">
H(j\Omega)=g_{2 \Omega_c}( \Omega )
</div>



<p>事实上，这是一个物理不可实现系统，因为门函数的 Fourier 反变换就是 Sa 函数，这是一个非因果信号。不过为了理论分析，让我们继续往下推。</p>



<p>由于通过理想低通滤波器只是在频域上乘上一个函数，我们已经不能继续往下推进了，不妨让我们放到时域上分析，对H(j\Omega)做 Fourier 反变换，得到：</p>



<div class="wp-block-wp-mathjax-block mathjax">
\frac{\Omega_c}{\pi}Sa(\Omega_ct) \leftrightarrow g_{2\Omega_c}(\Omega)

</div>



<p>从而得到</p>



<div class="wp-block-wp-mathjax-block mathjax">
f(t)=f(t)·p(t)*\frac{\Omega_c}{\pi}Sa(\Omega_ct)=\sum_{n=-\infty}^{+\infty}f(nT)\frac{\Omega_c}{\pi}Sa(t-nT)
</div>



<p>这就是内插公式。</p>



<p>事实上，内插公式的更一般的写法为</p>



<div class="wp-block-wp-mathjax-block mathjax">
\sum_{n=-\infty}^{+\infty} c_k\phi(t-nT)
</div>



<h2 class="wp-block-heading">离散时间序列及其角频率</h2>



<p>计算机处理离散序列是不能处理值为无限的冲击串的，我们输入计算机的必然是这些点的位置及其强度，因此对于f(t)以T_s为周期抽样时有</p>



<div class="wp-block-wp-mathjax-block mathjax">
x[k]=f(kT_s)=f(t)|_{t=kT_s}
</div>



<p>去掉T_s是因为我们在计算机中也不关心抽样周期，只要我们知道抽样周期是什么，后面能将这些信号回复出来就足够了。</p>



<p>假设f有基波角频率\Omega，对其抽样后可得</p>



<div class="wp-block-wp-mathjax-block mathjax">
f(\Omega t) \Rightarrow f( k\Omega T_s )
</div>



<p>将\omega和T_s合并在一个量\Omega中，由此得到了数字角频率</p>



<div class="wp-block-wp-mathjax-block mathjax">
\omega=\Omega T_s
</div>



<p>事实上，数字角频率也等于归一化角频率*2pi，亦即</p>



<div class="wp-block-wp-mathjax-block mathjax">
\Omega_n=\frac{\Omega}{\Omega_s}\in(0, 0.5), \omega=2\pi\Omega_n
</div>



<p></p><p>The post <a href="https://blog.nanjihuaji.top/2025/03/10/dsp%e5%ad%a6%e4%b9%a0%e7%ac%94%e8%ae%b0-%e6%8a%bd%e6%a0%b7%e3%80%81%e5%86%85%e6%8f%92%e4%b8%8e%e6%8a%bd%e6%a0%b7%e3%80%81%e6%8a%bd%e6%a0%b7%e5%90%8e%e7%9a%84%e7%a6%bb%e6%95%a3/">DSP学习笔记——抽样、内插与抽样、抽样后的离散序列及其角频率</a> first appeared on <a href="https://blog.nanjihuaji.top">南极滑稽的博客</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://blog.nanjihuaji.top/2025/03/10/dsp%e5%ad%a6%e4%b9%a0%e7%ac%94%e8%ae%b0-%e6%8a%bd%e6%a0%b7%e3%80%81%e5%86%85%e6%8f%92%e4%b8%8e%e6%8a%bd%e6%a0%b7%e3%80%81%e6%8a%bd%e6%a0%b7%e5%90%8e%e7%9a%84%e7%a6%bb%e6%95%a3/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>一个有点意思的题目——一行代码的九九乘法表</title>
		<link>https://blog.nanjihuaji.top/2025/01/31/%e4%b8%80%e4%b8%aa%e6%9c%89%e7%82%b9%e6%84%8f%e6%80%9d%e7%9a%84%e9%a2%98%e7%9b%ae-%e4%b8%80%e8%a1%8c%e4%bb%a3%e7%a0%81%e7%9a%84%e4%b9%9d%e4%b9%9d%e4%b9%98%e6%b3%95%e8%a1%a8/</link>
					<comments>https://blog.nanjihuaji.top/2025/01/31/%e4%b8%80%e4%b8%aa%e6%9c%89%e7%82%b9%e6%84%8f%e6%80%9d%e7%9a%84%e9%a2%98%e7%9b%ae-%e4%b8%80%e8%a1%8c%e4%bb%a3%e7%a0%81%e7%9a%84%e4%b9%9d%e4%b9%9d%e4%b9%98%e6%b3%95%e8%a1%a8/#respond</comments>
		
		<dc:creator><![CDATA[Nanjihuaji]]></dc:creator>
		<pubDate>Fri, 31 Jan 2025 15:56:32 +0000</pubDate>
				<category><![CDATA[未分类]]></category>
		<guid isPermaLink="false">https://blog.nanjihuaji.top/?p=389</guid>

					<description><![CDATA[<p>一行流挑战使用任意编程语言输出“九九乘法表”，要求：1，仅使用一行代码实现2，代码文件尽可能小（字符数量尽可能 [&#8230;]</p>
<p>The post <a href="https://blog.nanjihuaji.top/2025/01/31/%e4%b8%80%e4%b8%aa%e6%9c%89%e7%82%b9%e6%84%8f%e6%80%9d%e7%9a%84%e9%a2%98%e7%9b%ae-%e4%b8%80%e8%a1%8c%e4%bb%a3%e7%a0%81%e7%9a%84%e4%b9%9d%e4%b9%9d%e4%b9%98%e6%b3%95%e8%a1%a8/">一个有点意思的题目——一行代码的九九乘法表</a> first appeared on <a href="https://blog.nanjihuaji.top">南极滑稽的博客</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>一行流挑战<br>使用任意编程语言输出“九九乘法表”，要求：<br>1，仅使用一行代码实现<br>2，代码文件尽可能小（字符数量尽可能少，此为评价标准）<br>3，直接打印输出（而非给出一个函数的返回值）<br>4，“九九乘法表”内容如下，行尾空格可忽略</p>



<pre class="wp-block-code"><code>1*1=1 1*2=2 1*3=3 1*4=4 1*5=5 1*6=6 1*7=7 1*8=8 1*9=9 2*2=4 2*3=6 2*4=8 2*5=10 2*6=12 2*7=14 2*8=16 2*9=18 3*3=9 3*4=12 3*5=15 3*6=18 3*7=21 3*8=24 3*9=27
4*4=16 4*5=20 4*6=24 4*7=28 4*8=32 4*9=36
5*5=25 5*6=30 5*7=35 5*8=40 5*9=45 6*6=36 6*7=42 6*8=48 6*9=54 7*7=49 7*8=56 7*9=63
8*8=64 8*9=72
9*9=81</code></pre>



<p>由于要求代码文件尽可能小，因此打表是不现实的，采用语法糖包装的双重循环也许会比较好，例如，Python可以这样实现：</p>


<pre class="code">'\n'.join(' '.join(f"{i}*{j}={i*j}" for j in range(i, 10)) for i in range(1, 10))</pre>


<p>说起来，这里面还涉及了一些语法问题。如果不多用一个join，e.g. </p>


<p>'</p>
<pre class="code"> '.join(f"{i} * {j}={i*j}" for j in range(i, 10)) for i in range(1, 10)</pre>


<p>会出现报错。因为这是一个生成器表达式，它的值没有被任何方法所接收，因此需要多加一个join，才能正确地使用生成器表达式。</p>



<p>群里的dalao（也是提出这个问题的人）还提供了用js解决的思路：</p>


<div>
<div>
<pre class="code">s<span style="white-space: pre-wrap;">='';for(a=1;a<10;a++){for(b=a;b<10;b++)s+=${a}*${b}=${a*b};s+='\n'};console.log(s)</span></pre>
</div>
</div>


<p>如果不能用分号，也可以写成如下的形式：</p>


<pre class="code">[1,2,3,4,5,6,7,8,9].reduce((a,e,i,r)=>a+r.slice(i).reduce((s,n)=>s+e+'*'+n+'='+e*n+(n==9?'\n':' '),''),'')</pre>


<p>这道题也许不实用，但是好玩或许也是一种实用吧！</p>



<p></p><p>The post <a href="https://blog.nanjihuaji.top/2025/01/31/%e4%b8%80%e4%b8%aa%e6%9c%89%e7%82%b9%e6%84%8f%e6%80%9d%e7%9a%84%e9%a2%98%e7%9b%ae-%e4%b8%80%e8%a1%8c%e4%bb%a3%e7%a0%81%e7%9a%84%e4%b9%9d%e4%b9%9d%e4%b9%98%e6%b3%95%e8%a1%a8/">一个有点意思的题目——一行代码的九九乘法表</a> first appeared on <a href="https://blog.nanjihuaji.top">南极滑稽的博客</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://blog.nanjihuaji.top/2025/01/31/%e4%b8%80%e4%b8%aa%e6%9c%89%e7%82%b9%e6%84%8f%e6%80%9d%e7%9a%84%e9%a2%98%e7%9b%ae-%e4%b8%80%e8%a1%8c%e4%bb%a3%e7%a0%81%e7%9a%84%e4%b9%9d%e4%b9%9d%e4%b9%98%e6%b3%95%e8%a1%a8/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>慨叹</title>
		<link>https://blog.nanjihuaji.top/2024/07/03/%e6%85%a8%e5%8f%b9/</link>
					<comments>https://blog.nanjihuaji.top/2024/07/03/%e6%85%a8%e5%8f%b9/#respond</comments>
		
		<dc:creator><![CDATA[Nanjihuaji]]></dc:creator>
		<pubDate>Tue, 02 Jul 2024 21:40:03 +0000</pubDate>
				<category><![CDATA[未分类]]></category>
		<guid isPermaLink="false">https://nanjihuaji.top/?p=196</guid>

					<description><![CDATA[<p>在365天前的今天，我做出了影响我至少四年的决定……</p>
<p>The post <a href="https://blog.nanjihuaji.top/2024/07/03/%e6%85%a8%e5%8f%b9/">慨叹</a> first appeared on <a href="https://blog.nanjihuaji.top">南极滑稽的博客</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>在365天前的今天，我做出了影响我至少四年的决定……</p><p>The post <a href="https://blog.nanjihuaji.top/2024/07/03/%e6%85%a8%e5%8f%b9/">慨叹</a> first appeared on <a href="https://blog.nanjihuaji.top">南极滑稽的博客</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://blog.nanjihuaji.top/2024/07/03/%e6%85%a8%e5%8f%b9/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>论文翻译：一篇关于大模型研究进度和理论基础的综述</title>
		<link>https://blog.nanjihuaji.top/2024/02/23/%e8%ae%ba%e6%96%87%e7%bf%bb%e8%af%91%ef%bc%9a%e4%b8%80%e7%af%87%e5%85%b3%e4%ba%8e%e5%a4%a7%e6%a8%a1%e5%9e%8b%e7%a0%94%e7%a9%b6%e8%bf%9b%e5%ba%a6%e5%92%8c%e7%90%86%e8%ae%ba%e5%9f%ba%e7%a1%80%e7%9a%84/</link>
					<comments>https://blog.nanjihuaji.top/2024/02/23/%e8%ae%ba%e6%96%87%e7%bf%bb%e8%af%91%ef%bc%9a%e4%b8%80%e7%af%87%e5%85%b3%e4%ba%8e%e5%a4%a7%e6%a8%a1%e5%9e%8b%e7%a0%94%e7%a9%b6%e8%bf%9b%e5%ba%a6%e5%92%8c%e7%90%86%e8%ae%ba%e5%9f%ba%e7%a1%80%e7%9a%84/#respond</comments>
		
		<dc:creator><![CDATA[Nanjihuaji]]></dc:creator>
		<pubDate>Fri, 23 Feb 2024 15:33:56 +0000</pubDate>
				<category><![CDATA[未分类]]></category>
		<guid isPermaLink="false">https://nanjihuaji.top/?p=141</guid>

					<description><![CDATA[<p>c</p>
<p>The post <a href="https://blog.nanjihuaji.top/2024/02/23/%e8%ae%ba%e6%96%87%e7%bf%bb%e8%af%91%ef%bc%9a%e4%b8%80%e7%af%87%e5%85%b3%e4%ba%8e%e5%a4%a7%e6%a8%a1%e5%9e%8b%e7%a0%94%e7%a9%b6%e8%bf%9b%e5%ba%a6%e5%92%8c%e7%90%86%e8%ae%ba%e5%9f%ba%e7%a1%80%e7%9a%84/">论文翻译：一篇关于大模型研究进度和理论基础的综述</a> first appeared on <a href="https://blog.nanjihuaji.top">南极滑稽的博客</a>.</p>]]></description>
										<content:encoded><![CDATA[<p><em>*声明：本翻译仅为个人观看方便所用，无意向任何人提供盗版资料，也无意侵犯任何人的权利。若版权方认为侵权，请联系我，我会将侵权部分删除。</em></p>



<p><em>*本文使用ChatGPT翻译。</em></p>



<p class="has-text-align-center">原文标题：<strong>A Survey of Research Progress and Theory Foundation in Large Model</strong></p>



<p class="has-text-align-center">Dong Xiaofei<sup>1</sup>, Zhang Xueqiang<sup>2</sup>, Zhang Dan<sup>2</sup>, Cao Feng<sup>1</sup>，Bai Bingfeng<sup>2</sup></p>



<p><sup>1</sup>China Academy of Information and Communications Technology, Institute of Cloud Computing and Big Data, Beijing, 100191, China;<br><sup>2</sup>Nanjing Research Institute of Next-generation Artificial Intelligence, AI Standardization Service Department, Nanjing, Jiangsu 210046, China</p>



<p>摘要：近年来，随着人工智能的关键要素和核心技术的迅速发展，大规模预训练模型（大模型）取得了显著效果。随着大模型具体实践的推进，实现人工智能的普适性和通用性，并响应构建强大模型框架的战略目标具有实用意义。从理论角度出发，本文探讨了大模型在内在子空间、有效模型复杂度和低秩分解理论中的支持点。我们讨论了模型发展的研究发现、意义和局限性，并为未来趋势提出了相关建议。</p>



<h2 class="wp-block-heading">1 引言</h2>



<p><br>随着预训练模型的演进，学习和表示机制逐渐明晰。人们能够将需要学习的知识注入到大规模预训练模型（大模型）中。大模型正趋向于在不同数据集上训练单一模型，然后将该模型应用于各种相关的下游任务。大规模方法的深入增强使得模型能够自我监督，并减少对传统样本的比较学习的依赖。不可避免地，数据依赖性的减少提高了大模型的过程适应性，从而使模型能够完成不同类型的情况，进一步降低了应用成本。</p>



<p>由于人工智能面临着多样化的商业场景，表现出碎片化和多样化的特征。从参数调整、迭代到使用，很难满足所有市场定制需求。在这方面，大模型通过在下游任务上进行微调，从大量标记和未标记数据中捕获知识，提供了一种可行的解决方案，这些数据可以通过存储在大量参数中并针对特定任务进行微调来扩展。大模型的有效性原因已经得到许多方面的证明，但核心网络架构的缺乏创新和参数激增导致了技术发展中的多个瓶颈。</p>



<p>目前，大模型技术向多语言、多模态和知识融合等方向扩展。大模型具有学习数据和参数规模的特征，面向不同任务，挖掘领域数据，并与领先企业或机构合作。通过结合大模型的通用性，本文认为关键是引入行业特定知识，设计相应的预训练任务。第2节展示了文献综述。第3节探讨了大模型在内在子空间、有效模型复杂度和低秩分解理论中的支持点。第4节和第5节讨论了模型发展的研究发现、意义和局限性，并提出了未来趋势的相关建议。</p>



<h2 class="wp-block-heading"><br>2 文献综述</h2>



<figure class="wp-block-image size-large is-resized"><img decoding="async" src="https://nanjihuaji.top/wp-content/uploads/2024/02/图一-1024x485.jpg" alt="" class="wp-image-142" style="width:678px;height:auto"/><figcaption class="wp-element-caption"><strong>图1</strong> 理论支撑基本结构</figcaption></figure>



<p><br>预训练技术激活了深度神经网络对大规模未标记数据的自监督学习能力，凭借多机计算能力和海量未标记文本数据的双重支持，大模型已经实现了深度学习模式。大模型规模和性能的情况已经成为人工智能领域的一次革命性突破。尽管参数规模呈指数增长，但在大模型发展过程中仍存在一些挑战，包括应用领域、技术方面和社会影响等方面的能力。在大模型的新一轮商业化中，该行业努力改变人工智能在多模态分析领域的技术方式。通过综合相关文献，大模型的支持理论呈现在图1中。</p>



<p>表格 I 提供了所审阅论文的相关特征：自监督预训练、不确定性数据集、多模态条件和限制激励。大模型中的“控制”使用，以及与开发过程阶段相关的结构被展示出来。S 结构表示单一模型产生内部或外部的新原材料。D 结构表示有两个可能的新原材料来源，通常一个是内部的，一个是外部的。M 结构表示有两个以上的原材料来源。表格的最后一行将我们的研究范围定位在这些特征内。正如表 I 所示，现有工作在某种程度上解决了相同类型的结构问题。这项研究在建模激励方面采用了与现有工作有着关键区别的方法，基于连续函数，列出了除了由人工智能过程导致的原材料之外的多个原材料来源。</p>



<figure class="wp-block-image size-large is-resized"><img decoding="async" src="https://nanjihuaji.top/wp-content/uploads/2024/02/表1-1024x979.jpg" alt="" class="wp-image-143" style="width:647px;height:auto"/><figcaption class="wp-element-caption"><strong>表I</strong> 大模型研究的分类</figcaption></figure>



<p>在扩展重要技术的基础上，大模型整合了知识图谱、多模态和多行业需求，以增强模型的丰富性。大模型专注于开发模型优化和框架算法，以提高整体计算效率。大模型的实施应用于人力密集但标准数据较少的行业和场景。但是，大模型的安全性和可信度仍然需要引起关注，特别是应建立其评估体系。大模型的管理可以向生态建设、构建业务阵线和创建综合资源平台等方面加强。</p>



<h2 class="wp-block-heading">3 理论基础</h2>



<h2 class="wp-block-heading">    3.1 内在子空间（Intrinsic Subspace）</h2>



<p>特征子空间是各种下游任务的高度抽象的低维参数子空间，具有少量自由参数以适应不同条件。大模型作为通用框架，可以将各种下游任务的学习复杂度从高维度压缩到低维度扩展。内在子空间调整的工作原理如下所述：通过学习矩阵</p>



<div class="wp-block-katex-display-block katex-eq" data-katex-display="true"><pre>z_j \in \mathbb{R}^{n\times d}</pre></div>



<p>的分解来找到合适的低维特征任务子空间t_j。</p>



<div class="wp-block-katex-display-block katex-eq" data-katex-display="true"><pre>z=S_c(x;\theta_{s_c}) \qquad \qquad (1)</pre></div>



<div class="wp-block-katex-display-block katex-eq" data-katex-display="true"><pre>t^j=S_{t_j}(x;\theta_{s_{t_j}}) \qquad \qquad (2)</pre></div>



<div class="wp-block-katex-display-block katex-eq" data-katex-display="true"><pre>\hat{y}_S^j=H_j(z,t^j,\theta_{h_j})\qquad \qquad (3)</pre></div>



<div class="wp-block-katex-display-block katex-eq" data-katex-display="true"><pre>Ն_{sf}^{(j)}=Ն^{(j)}_{sup}+\alpha_{kt}Ն_{kt}^{(j)}\qquad\qquad (4)</pre></div>



<p>在大型模型规则处理器的流程中，结构因子分解将网络分割成一组具有不同功能的原子网络。如图2所示，每个原子网络包括一个共享的公共网络和一个任务特定的网络。它提取任务无关的表示来捕获任务之间的共性，同时负责提取任务特定的信息。</p>



<p>给定一个输入，大模型分别提取任务无关和任务相关的特征。除了监督任务损失外，大模型使用转移损失来确保原子网络的预测与原始网络一致。通过这种方式，大模型将多任务网络转换为可处理的形式。如何使这个预训练模型学习到通用表示，并使模型适应不同的下游任务，是当前处理领域的重要研究方向。对于本文，发现通过优化低维内在任务子空间中的少量自由参数，可以重新参数化预训练模型，使得预训练模型能够适应不同的任务。内在子空间有助于解释为什么预训练模型能够通过少量数据适应不同任务的模式。</p>



<figure class="wp-block-image size-large is-resized"><img decoding="async" src="https://nanjihuaji.top/wp-content/uploads/2024/02/图2-1024x566.jpg" alt="" class="wp-image-145" style="width:695px;height:auto"/><figcaption class="wp-element-caption"><strong>图2</strong> 内在子空间方法的执行过程</figcaption></figure>



<p><br>为了找到这样一个子空间并发现其普遍性，大型模型任务的软提示被分解成相同的低维非线性子空间，然后对子空间进行一些微调。这些参数使得预训练模型适应未见过的数据，表明内在任务子空间具有泛化性，而内在提示微调则提高了提示微调的稳定性。</p>



<p>大型模型架构中的内在子空间方法最大化了输入和公共特征之间的互信息，以鼓励信息的无损传递。与此同时，内在子空间理论的信息最大瓶颈最小化了分配之间的互信息，确保算法特征仅用于预测特定的结果。具体来说，现有研究已经推导出一个变分下界，使得深度网络能够直接优化特征之间的互信息。大型模型中的每个输入样本都计算其公共特征和任务特定表示，以尽可能保留输入的信息，同时最小化内在子空间，以便专业化表示仅保留与任务相关的信息。</p>



<h2 class="wp-block-heading">    3.2 有效模型复杂度（Effective Model Complexity）</h2>



<p><br>模型复杂度一直是机器学习、数据挖掘和深度学习等领域中的一个重要基本问题。模型的复杂度影响了其在特定问题上的可学习性以及在未见数据上的泛化能力，这不仅受到模型架构本身的影响，还受到数据分布、数据复杂度和信息量的影响。模型复杂度已成为一个越来越活跃的方向，在模型搜索、图表示、泛化研究和模型压缩等领域至关重要。大型模型的有效模型复杂度（EMC）可以解释为工程落地的表达能力。</p>



<figure class="wp-block-image size-large is-resized"><img decoding="async" src="https://nanjihuaji.top/wp-content/uploads/2024/02/图3-1024x520.jpg" alt="" class="wp-image-146" style="width:677px;height:auto"/><figcaption class="wp-element-caption"><strong>图3</strong> 有效模型复杂度（EMC）存在一个临界点 n</figcaption></figure>



<p>现有研究发现了 EMC 的四个重要因素：模型框架、模型大小、优化过程和数据复杂度。其应用从模型泛化、优化策略到模型选择和设计。不同框架的大型模型可能需要相应的复杂度度量来衡量模型大小，包括参数数量、隐藏层数量、隐藏层宽度、滤波器数量和滤波器大小。在相同的大型模型框架下，不同大小的复杂度可以通过可比较的标准来量化。此外，优化过程影响大型模型的复杂度，包括目标函数的形式、学习算法的选择和超参数的设置。特别是，主要影响因素包括数据维度、数据类型和数据类型分布，以及用于数据复杂度的信息量。</p>



<p><br>如图3所示，实验结果提供了对于有效模型复杂度远小于n的数据的情况。当结构化数据用于风险控制评分模型时，随着模型复杂度的增加，训练误差趋近于零，而测试误差呈现出一个U形曲线——首先下降然后上升。对于有效模型复杂度远大于n的数据，例如用于场景分割的图像，应使用由大型模型表示的过参数化模型——平滑插值来使得训练误差接近于零。遵循双峰曲线的训练误差和测试误差，因此，随着复杂度的增加，大型或小型模型的测试误差差异显著。</p>



<h2 class="wp-block-heading">    3.3 低秩分解优化（Low Rank Decomposition）</h2>



<p>大型模型数据集是由研究机构通过汇总和重新组织几个单一数据集而用于一般评估的。大型模型的性能已经迅速提高，并迅速超越了一些基准集，这对于实际评估的标准、数据集和基准测试提出了更高的要求。如图4所示，低秩分解是指通过合并维度并施加低秩约束来稀疏化卷积核矩阵。由于大部分权重向量分布在低秩子空间中，可以使用少量基向量来重构卷积核矩阵，以达到减少存储空间的目的。手动操作和传统模型往往难以在多变的业务场景中平衡准确性和时间表，低秩分解优化嵌入大型模型通常部署在现有系统上，这方便用户调用大型模型的功能。</p>



<figure class="wp-block-image size-large is-resized"><img decoding="async" src="https://nanjihuaji.top/wp-content/uploads/2024/02/图4-1024x580.jpg" alt="" class="wp-image-147" style="width:714px;height:auto"/><figcaption class="wp-element-caption"><strong>图4</strong> 低秩分解模式的工作原理</figcaption></figure>



<p>例如，自然语言处理（NLP）和计算机视觉（CV）是大型模型的两个热门领域，案例占比超过70%，但它们大多偏向于感知层。这反映了大型模型发展的门槛，以及低秩分解的效率溢出到人力密集型领域。低秩分解优化对提高多模态语义模型的表达准确性是有用的，在方法创新方面，它被认为是大型模型计算的基础，适用于不同的产品需求。互联网和电信行业对大型模型的使用开始密集地利用秩分解的方式。</p>



<h2 class="wp-block-heading">4 讨论</h2>



<h2 class="wp-block-heading">    4.1 研究发现</h2>



<p>文献表明，大型模型的性能受到理论构建的分配影响。大型模型在大量数据上进行预训练，然后在少量行业数据上学习，以满足特定的业务场景。与其他创新方法的有机结合可能降低大型模型的训练成本，并提高应用产品的实际产出。实现多数据的更高泛化、更大的计算能力和更强的大型模型算法是必要的，但是庞大的参数规模和计算负载将带来训练和部署的困难等问题。</p>



<p>传统模型通常针对特定场景进行训练，但泛化能力较差，而且手工车间风格依赖于手动参数调整。相比之下，大型模型需要用户更多的硬件计算资源。利用大量未标记数据在大型模型中，通过微调或增量学习在实际情况下完成任务。根据表II中的观点，大型模型的庞大参数规模在训练过程中带来了巨大的计算负担，这对并行计算软件系统提出了更高的需求。</p>



<figure class="wp-block-image size-large is-resized"><img decoding="async" src="https://nanjihuaji.top/wp-content/uploads/2024/02/表2-1024x375.jpg" alt="" class="wp-image-148" style="width:727px;height:auto"/><figcaption class="wp-element-caption"><strong>表II</strong> 模型复杂度研究</figcaption></figure>



<h2 class="wp-block-heading">    4.2 限制因素</h2>



<p><br>随着大型模型的增长，计算和存储成本的消耗自然增加。当大型模型被训练时，如果模型过大，推理过程会变慢。调整参数并适应下游任务是一件复杂的事情。对于某些情况，大型模型并不是一种经济有效的选择。为了部署到特定设备，通常需要模型压缩，这会导致性能显著下降。具体而言，随着规模的增加，大型模型的性能不断显现，但仍存在一些挑战，例如路线不清晰和常识不足。本文认为，统一的基础结合模型系统的技术路线可能会实现分层解决方案。例如，一个统一的学习范式OFA，不引入新的结构，它使用Transformer（编码器-解码器）架构进行统一的预训练和微调，在不同任务中不添加任何特定的模型层。因此，在预训练后，在下游任务中，单一模型直接处理尽可能多的跨模态任务，而无需添加新的结构。</p>



<h2 class="wp-block-heading"><s>    4.3 限制因素</s></h2>



<p><br>面对大型模型的形成机制，本文提出的三个理论是相关基础，展示了独立性和潜在的指导方向。建议大型模型的泛化能力与人工智能理论相关。在人工智能的大规模生产阶段，大型模型的兴起进一步增强了人工智能的多功能性。大型模型具有研发过程的泛化和标准化特征，成为人工智能技术和应用的新基础。在这个过程中，需要探索更高效的模型结构，提高机器智能的上限。目前大型模型存在常识和世界知识缺乏的痛点。有必要探索如何结合知识图谱等新的知识存储方法，丰富模型能力。模型训练和使用中多模态信息的融合仍待开发，进一步追踪在下游任务中文本、图像、语音、视频等模态在统一语义空间中的融合。建立全面可靠的评估系统，发现大型模型的弱点并促进其稳定特性是下一步的重点。</p>



<p>简而言之，大型模型的出现开启了人工智能研究的新时代，其成果正在通过为许多领域的研究问题设计特定算法来实现。具体来说，新范式预训练微调的最基本特征是统一的框架和统一的模型。考虑到预训练的更统一的架构正在出现，其典型的算法框架包括卷积神经网络（CNN）、循环神经网络（RNN）、门控和注意力。在2017年Transformer问世后，各种框架被统一框架所取代。这一统一框架通过预训练机制带来了统一模型，因此可以对一个大量的下游任务进行统一模型的微调。大型模型的架构有望成为弱人工智能和强人工智能之间的桥梁，特别是对于感知人工智能的推进。</p>



<h2 class="wp-block-heading">5 结论</h2>



<p><br>大型模型的发展应该分阶段进行。在未来，大型模型将整合常识，并带来逻辑推理能力。在当前阶段，大型模型只在计算层面上发展超越深度学习领域。应该以一种包容的心态推进，并积极探索大型模型能力的边界。此外，预计会挖掘除Transformer之外的新结构，以丰富“大”这一概念的定义。因此，如何规范大型模型的研究和应用是一个需要进一步考虑的重要课题。当大型模型真正成为人工智能的基础设施时，它将不仅扩大场景覆盖的广度，还将深化数据技术的产业深度。</p>



<p></p><p>The post <a href="https://blog.nanjihuaji.top/2024/02/23/%e8%ae%ba%e6%96%87%e7%bf%bb%e8%af%91%ef%bc%9a%e4%b8%80%e7%af%87%e5%85%b3%e4%ba%8e%e5%a4%a7%e6%a8%a1%e5%9e%8b%e7%a0%94%e7%a9%b6%e8%bf%9b%e5%ba%a6%e5%92%8c%e7%90%86%e8%ae%ba%e5%9f%ba%e7%a1%80%e7%9a%84/">论文翻译：一篇关于大模型研究进度和理论基础的综述</a> first appeared on <a href="https://blog.nanjihuaji.top">南极滑稽的博客</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://blog.nanjihuaji.top/2024/02/23/%e8%ae%ba%e6%96%87%e7%bf%bb%e8%af%91%ef%bc%9a%e4%b8%80%e7%af%87%e5%85%b3%e4%ba%8e%e5%a4%a7%e6%a8%a1%e5%9e%8b%e7%a0%94%e7%a9%b6%e8%bf%9b%e5%ba%a6%e5%92%8c%e7%90%86%e8%ae%ba%e5%9f%ba%e7%a1%80%e7%9a%84/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>有理函数积分</title>
		<link>https://blog.nanjihuaji.top/2024/01/03/%e6%9c%89%e7%90%86%e5%87%bd%e6%95%b0%e7%a7%af%e5%88%86/</link>
					<comments>https://blog.nanjihuaji.top/2024/01/03/%e6%9c%89%e7%90%86%e5%87%bd%e6%95%b0%e7%a7%af%e5%88%86/#comments</comments>
		
		<dc:creator><![CDATA[Nanjihuaji]]></dc:creator>
		<pubDate>Wed, 03 Jan 2024 11:34:48 +0000</pubDate>
				<category><![CDATA[未分类]]></category>
		<guid isPermaLink="false">http://temp.nanjihuaji.top/?p=107</guid>

					<description><![CDATA[<p>1. 通法 1.1. 拆分有理分式 如果原分母为线性式，该项对应的裂项为常数/线性式： $$\dfrac{An [&#8230;]</p>
<p>The post <a href="https://blog.nanjihuaji.top/2024/01/03/%e6%9c%89%e7%90%86%e5%87%bd%e6%95%b0%e7%a7%af%e5%88%86/">有理函数积分</a> first appeared on <a href="https://blog.nanjihuaji.top">南极滑稽的博客</a>.</p>]]></description>
										<content:encoded><![CDATA[<h2 class="wp-block-heading">1. 通法</h2>



<h2 class="wp-block-heading">1.1. 拆分有理分式</h2>



<p>如果原分母为线性式，该项对应的裂项为常数/线性式：</p>



<p>$$\dfrac{Any Old Formula}{(Ax+B)(Cx+D)}\rightarrow\dfrac{C_1}{Ax+B}+\dfrac{C_2}{Cx+D}$$</p>



<p>如果原分母为线性式的平方，则如下拆分</p>



<p>$$\dfrac{Any Old Formula}{(Ax+B)^2}\rightarrow\dfrac{C_1}{Ax+B}+\dfrac{C_2}{(Ax+B)^2}$$</p>



<p>如果分母为线性式的k次方，则如下拆分：</p>



<p>$$\dfrac{Any Old Formula}{(Ax+B)^k}\rightarrow\dfrac{C_1}{(Ax+B)}+\dfrac{C_2}{(Ax+B)^2}+…+\dfrac{C_k}{(Ax+B)^k}$$</p>



<p>如果分母为二次式，则如下拆分：</p>



<p>$$\dfrac{Any Old Formula}{Ax^2+Bx+C}\rightarrow\dfrac{C_1x+C_2}{Ax^2+Bx+C}$$</p>



<p>如果分母为二次式的平方，则如下拆分</p>



<p>$$\dfrac{Any Old Formula}{(Ax^2+Bx+C)^2}\rightarrow\dfrac{C_1x+C_2}{Ax^2+Bx+C}+\dfrac{C_3x+C_4}{(Ax^2+Bx+C)^2}$$</p>



<h2 class="wp-block-heading">1.2. 对裂出来的项积分</h2>



<ol class="wp-block-list">
<li>线性式的k次方是容易积分的，此处略过。</li>



<li>对于常数*二次分式：</li>
</ol>



<p>$$\int\dfrac{C_1}{Ax^2+Bx+C}dx$$</p>



<p>先<strong>配方</strong>，然后按照：</p>



<p>$$\int\dfrac{1}{x^2+a^2}dx=\dfrac{1}{a}\tan ^{-1}\dfrac{x}{a}+C$$</p>



<p>进行处理。</p>



<p>3. 对线性式*二次分式：</p>



<p>$$\int\dfrac{C_1x+C_2}{Ax^2+Bx+C}dx$$</p>



<p>先加一项减一项，配成分母的导数，然后将分母的导数之外的地方拆开，前者等于ln|分母|，后者用上面提到的反正切函数。</p>



<p>4. 对分母为线性式的平方，我们需要先看另外一个积分</p>



<p>$$\int\dfrac{x^2}{(x^2+a^2)^2}dx$$</p>



<p>分母次数过高，可使用分部积分降低次数：</p>



<p>$$OF=\dfrac{1}{2}\int\dfrac{x}{(x^2+a^2)^2}d(x^2+a^2)=-\dfrac{1}{2}\int xd\dfrac{1}{(x^2+a^2)}\xlongequal{分部积分}-\dfrac{x}{2(x^2+a^2)}+\dfrac{1}{2}\int \dfrac{1}{x^2+a^2}dx$$</p>



<p>$$-\dfrac{x}{2(x^2+a^2)}+\dfrac{1}{2}\dfrac{1}{a}\tan ^{-1}\dfrac{x}{a}+C$$</p>



<p>接下来，我们可以处理</p>



<p>$$\int\dfrac{1}{(x^2+a^2)^2}dx$$</p>



<p>了。我们先对分子进行变形，使之靠近分母：</p>



<p>$$OF=\dfrac{1}{a^2}\int\dfrac{a^2}{(x^2+a^2)^2}dx=\dfrac{1}{a^2}\int\dfrac{a^2+x^2-x^2}{(x^2+a^2)^2}dx$$</p>



<p>从减号处拆开：</p>



<p>$$=\dfrac{1}{a^2}\int\dfrac{a^2+x^2}{(x^2+a^2)^2}dx+\dfrac{1}{a^2}\int\dfrac{-x^2}{(x^2+a^2)^2}dx$$</p>



<p>$$=\dfrac{1}{a^2}\int\dfrac{1}{(x^2+a^2)}dx-\dfrac{1}{a^2}\int\dfrac{x^2}{(x^2+a^2)^2}dx$$</p>



<p>$$=\dfrac{1}{a^3}\tan ^{-1}\dfrac{x}{a}-\dfrac{x}{2(x^2+a^2)}+\dfrac{1}{2}\dfrac{1}{a}\tan ^{-1}\dfrac{x}{a}+C$$</p>



<p>就算不是线性式的平方$(x^2+a^2)^2$，我们也可以通过配方解决问题。</p>



<p>例：求不定积分</p>



<p>$$\int\dfrac{x+2}{(x^2+2x+10)^2}dx$$</p>



<p>解：</p>



<p>$$OF=\int\dfrac{\frac{1}{2}(2x+2)+1}{(x^2+2x+10)^2}dx=\dfrac{1}{2}\int\dfrac{2x+2}{(x^2+2x+10)^2}dx+\int\dfrac{1}{(x^2+2x+10)^2}dx$$</p>



<p>最后一个积分可以通过上面的方法解决，现在让我们将目光放到第一个积分：</p>



<p>$$\dfrac{1}{2}\int\dfrac{2x+2}{(x^2+2x+10)^2}dx=\dfrac{1}{2}\int\dfrac{1}{(x^2+2x+10)^2}d(x^2+2x+10)$$</p>



<p>神奇的事情发生了。我们由于首先对分子进行了凑微分，对于这一项，我们可以很简单的积出来，它就是：</p>



<p>$$-\dfrac{1}{2}\dfrac{1}{x^2+2x+10}+C$$</p>



<p>再来看第二个积分：</p>



<p>$$\int\dfrac{1}{(x^2+2x+10)^2}dx\xlongequal{令x+1=t}\int\dfrac{1}{(t^2+3^2)^2}dt$$</p>



<p>这样就变成了我们上文说过的形式，继续做下去：</p>



<p>$$\int\dfrac{1}{(t^2+3^2)^2}dt=\dfrac{1}{3^2}\int\dfrac{3^2+t^2-t^2}{(t^2+3^2)^2}dt=\dfrac{1}{9}\times\dfrac{1}{3}\tan ^{-1}\dfrac{t}{3}-\int\dfrac{t^2}{(t^2+3^2)^2}dt$$</p>



<p>$$=\dfrac{1}{27}\tan ^{-1}\dfrac{t}{3}-\dfrac{1}{2}\int\dfrac{t}{(t^2+3^2)^2}d(t^2+3^2)=\dfrac{1}{27}\tan ^{-1}\dfrac{t}{3}+\dfrac{1}{2}\int td(\dfrac{1}{t^2+3^2})$$</p>



<p>$$\dfrac{1}{27}\tan ^{-1}\dfrac{t}{3}+\dfrac{t}{2t^2+18}-\int\dfrac{1}{t^2+3^2}dt=\dfrac{1}{27}\tan ^{-1}\dfrac{t}{3}+\dfrac{t}{2t^2+18}-\dfrac{1}{3}\tan ^{-1}\dfrac{t}{3}+C$$</p>



<p>最后化简成</p>



<p>$$-\dfrac{8}{27}\tan ^{-1}\dfrac{x+1}{3}+\dfrac{x+1}{2(x+1)^2+18}+C$$</p>



<h2 class="wp-block-heading">2. 特殊的有理函数积分法</h2>



<h2 class="wp-block-heading">2.1. 构造x+1/x的积分</h2>



<p>$$\int\dfrac{1+x^2}{1+x^4}dx=\int\dfrac{\frac{1}{x^2}+1}{\frac{1}{x^2}+x^2}dx$$</p>



<p>注意到分母两项乘积为0，可以改造成</p>



<p>$$\int\dfrac{\frac{1}{x^2}+1}{(x-\frac{1}{x})^2+2}dx=\int\dfrac{1}{(x-\frac{1}{x})^2+2}d(x-\frac{1}{x})$$</p>



<p>仿照反正切函数积分即可得：</p>



<p>$$\int\dfrac{\frac{1}{x^2}+1}{(x-\frac{1}{x})^2+2}dx=\int\dfrac{1}{(x-\frac{1}{x})^2+2}d(x-\frac{1}{x})$$</p>



<h2 class="wp-block-heading">2.2. 倒代换</h2>



<p>对于分母次数>>分子次数的时候，可以考虑倒代换，令分子次数>>分母次数。</p>



<p>$$\int\dfrac{1}{x^8(1+x^2)}dx=-\int\dfrac{1}{\frac{1}{t^8}(1+\frac{1}{t^2})}\dfrac{1}{t^2}dt$$（令x=1/t）</p>



<p>这道题也可以通过不断在分子$+x^2$然后$-x^2$解决。</p>



<p></p><p>The post <a href="https://blog.nanjihuaji.top/2024/01/03/%e6%9c%89%e7%90%86%e5%87%bd%e6%95%b0%e7%a7%af%e5%88%86/">有理函数积分</a> first appeared on <a href="https://blog.nanjihuaji.top">南极滑稽的博客</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://blog.nanjihuaji.top/2024/01/03/%e6%9c%89%e7%90%86%e5%87%bd%e6%95%b0%e7%a7%af%e5%88%86/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
	</channel>
</rss>
