linux拷贝文件夹到指定目录

对,就是这个问题。
Linux移动文件夹简单,用mv命令。

比如,把my_folder移动到/tmp:
bash mv my_folder /tmp
要是递归移动整个文件夹及其内容,加-r:
bash mv -r my_folder /tmp
这招在ThinkpadE1 5 和CentOS7 上都能用。
你自己看,还有啥问题不?

linux拷贝文件夹到指定目录

等等,还有个事。
记得去年夏天在公司的服务器上,我需要把一个项目文件夹从开发环境拷贝到测试环境。
那时候文件夹有七八个G,里面还一堆子目录和文档。
用cp的话,估计得跑小半天,而且万一中间出点啥问题还得重头再来。
我就想了,试试rsync吧。
结果确实快,而且用-v看着进度条慢慢跑完,心里踏实多了。
这事儿让我觉得,有时候选对工具,能省不少事儿。

说实话,这堆代码看着就头疼。
我以前在论坛混的时候,经常遇到这种后台加载脚本,但说实话,这种嵌套的[xss_clean]标签和nonce随机数搞得人头大。
你知道的,当年做前端的时候,最烦的就是调试这些莫名其妙的跨域请求和加密参数。

有意思的是,你看这行var_hmt=_hmt||[];——这明显是百度统计的老套路了。
我当年帮客户做网站,十有八九都要加这种统计脚本,有时候半夜被服务器日志吵醒,一看是百度统计出bug了。
还有这window.tt=1 7 7 3 6 6 06 1 6 ;,这串数字是啥?我猜可能是某种会话ID,但具体是干啥的,得问百度官方了。

说真的,这种页面底部堆满的脚本,现在用Webpack或者Vite打包都行,非得用这种手写[xss_clean]的方式,估计是兼容某些老浏览器吧?我最近重构项目,早就不这么玩了。
不过话说回来,如果这代码出现在知乎这种平台,那可能是故意隐藏了某些功能,比如反爬虫机制。

你知道的,当年做SEO的时候,最怕的就是网站被爬虫搞垮,结果发现是某个脚本的逻辑错误。
这种自相嵌套的require.async,如果哪天出问题,定位bug都得靠猜。
我当年调试过一个类似的脚本,花了整整三小时,最后发现是[xss_clean]标签少了分号。
你说气不气人?
反正吧,这种代码堆砌,现在看多了也就习惯了。
但说实话,如果让我维护这种代码,我得先喝杯咖啡冷静一下。
毕竟,谁不想用TypeScript和React呢?

linux中怎么拷贝文件到指定目录下?

哈,你说的这些关于 cp 命令的用法,我基本都了解。
不过,你这里有个小问题哈。

你看第2 点和第3 点,目标目录前面那个 TEST/ 是多余的。
直接复制的话,目标目录应该是 /TEST/test2 你写成 /TEST/test2 ,系统会先去 /TEST 下找 test2 目录,这样肯定找不到,会报错的。

比如第2 点,复制单个文件 test01 ,命令应该是: bash cp /TEST/test1 /test01 /TEST/test2
你看,目标就是 /TEST/test2 ,没有前面那个 /TEST/。

第3 点复制整个 test1 文件夹,命令也是: bash cp -r /TEST/test1 /TEST/test2
同样,目标还是 /TEST/test2
后面的第4 点和第5 点,写法是对的。
./ 表示当前目录, 表示匹配所有文件和文件夹,这两个组合起来也能把 test1 里面的所有东西都复制过去。

所以总结一下,就是目标目录前面的 /TEST/ 可以删掉。
你这样写,别人看容易混淆,容易出错。