Linux基础 —— 配置本地yum源

说白了:这些就是使用本地yum源配置CentOS 6 .5 的步骤。

首先cd /etc/yum.repos.d 进入目录。
然后使用 mkdir bak 创建备份目录。

将所有 .repo 文件移至 bak 中。
使用force dvd.repo 创建新的存储库文件。
按 i 进入编辑模式并填写配置。
按 Esc 键,然后按:wq 保存并退出。

百胜清洁所有清洁工作。
yum reposist 重新加载所有内容。

使用yum相册安装| grep mysql 检查是否安装。
安装后,使用 mysql yum remove 删除即可。

最后 yum -y install mysql-server mysql mysql-devel 已安装。
开始使用start mysqld服务。
要检查状态,请使用 mysqld 服务状态。

我记不太清了,但大概是这样的。
你自己看看吧。

语音识别基础:(三)完整的语音识别实验

上周有客户问我,你们公司在做语音识别方面的研究吗?我详细地告诉他,这个过程是相当复杂的。
首先我们需要准备实验环境和资源,比如在Linux系统下安装Kaldi工具包,然后配置环境。

下一步是数据准备,这非常重要。
我们需要将原始数据集组织成Kaldi所需的目录结构,例如Thchs3 0数据集。
除了音频数据外,还必须准备与语言相关的信息,例如发音词典、语言模型等。

然后是声学特征提取。
这个过程就是将原始音频转换成机器可以处理的形式,比如FBANK和MFCC特征。
我们还计算了倒谱平均方差归一化(CMVN)系数,这提高了声学特征的鲁棒性。

下一步是模型训练。
我们主要使用GMM-HMM和DNN。
在GMM-HMM模型训练过程中,我们将使用EM算法并引入Triphone、LDA+MLLR、SAT等技术。
DNN模型训练的目的是定义TDNN结构,并利用GMM-HMM强制标记的结果进行监督学习。

歧视培训也很重要。
我们将替换基于DNN-HMM的损失函数,并对神经网络声学模型的参数进行优化。

实验运行时,我们需要设置cmd.sh来配置资源,然后运行整个系统。
执行run.sh。
当然,这只是一般流程,具体操作可能会根据实际情况有所不同。

对于其他语音任务案例,比如语言识别、说话人识别等,Kaldi也提供了相关案例。
还有一些端到端的学习案例,比如Mozilla/DeepSpeech、SRVK/Eisen等。
不管怎样,语音识别领域还是蛮有趣的,涉及到很多技术和阶段。
如果你对这个领域感兴趣的话可以多加关注。
我还在思考这个问题,你可以去了解一下。

JYY操作系统实验L0 实验基础配置方案

结论:JYY L0实验基本布局方案。

Ubuntu2 0版本。
与经验一致。

双系统或WSL。
Windows使用WSL,Ubuntu2 0.04
安装 SSH。
与本地 WSL 交互。
aptget 安装程序软件。
按 dockerfile 命令。

git 提取代码。
使用加速器。

amgame 文件。
vscode 编辑器。

进行编译。
amgame/build 运行 qemusystemx8 6 _6 4
makeclear 清洁环境。
SH 文件载入流程。
运行 shbuildrun.sh。

南京大学 P1 操作系统 2 02 2 操作系统:设计与实现。

知识体系。