• 那是云首页
  • 快捷导航
  • 更多
    设为首页收藏本站
  • |
花生壳

#楼主# 2023-4-29 13:33

跳转到指定楼层
本帖最后由 cglzyz 于 2023-4-29 14:41 编辑

如果群晖中的硬盘原来组的是raid1或raid5,替换硬盘非常简单,可以把新盘设置为热备份,然后直接拔掉旧盘.
如果旧盘是basic,建议先把旧盘和新盘组成raid1,等数据同步完成,再拔掉旧盘,当然这时候会显示存储空间损坏,我们再用命令修复一下就可以了.
修复命令如下(把raid还原成basic)

此处内容已经被作者隐藏,请输入验证码查看

验证码 
  
微信扫描右侧二维码关注nasyun官方微信,回复“看帖”,获取验证码。在微信里搜索“那是云”也可关注官方微信。


回复关键词"命令"可以查看命令行
下面我把详细步骤说一下,仅供各位参考.


那是云论坛 - 国内知名的NAS交流平台
http://www.nasyun.com
分享淘帖
回复 印象

使用道具

0

精华

158

回帖

2329

积分

搞机大神

Rank: 3Rank: 3

云币
0
贡献
186
活跃
1311
精华
0
cglzyz 发表于 2023-6-3 01:19 来自 中国河南濮阳
如果不是用nvme替换原来的硬盘,只是想增加存储的话,分好区以后直接创建就行了,md3是第二个存储池,如果你有几个了,这个数字要继续向后排.
创建NVME存储池

mdadm --create /dev/md3 --level=1 --raid-devices=1 --force /dev/nvme0n1p3
回复 支持 反对 印象

使用道具 举报

0

精华

82

回帖

3564

积分

搞机大神

Rank: 3Rank: 3

云币
0
贡献
0
活跃
3523
精华
0
二马马 发表于 2023-4-30 15:41 来自 中国四川遂宁
啥也不说了,感谢楼主分享哇!
回复 支持 反对 印象

使用道具 举报

0

精华

158

回帖

2329

积分

搞机大神

Rank: 3Rank: 3

云币
0
贡献
186
活跃
1311
精华
0
cglzyz 发表于 2023-4-29 13:45 来自 中国河南濮阳
新盘替换后,系统区和交换区无法自动同步,也就是说系统没装入NVME硬盘,只存在于机械硬盘中.
如果你是普通盘替换普通盘,那么替换前最好用群晖存储管理初始化一下硬盘,就可以自动分区了,还会自动同步系统区数据.
回复 支持 反对 印象

使用道具 举报

0

精华

158

回帖

2329

积分

搞机大神

Rank: 3Rank: 3

云币
0
贡献
186
活跃
1311
精华
0
cglzyz 发表于 2023-4-29 13:41 来自 中国河南濮阳
本帖最后由 cglzyz 于 2023-4-29 14:36 编辑

本方法需要有一定的技术能力,风险较大,请自行斟酌使用.
命令可以使用putty等远程SSH连接工具输入.
我这里用的例子,是用nvme硬盘替换旧原来的SSD或普通硬盘,因为群晖不支持NVME做数据盘,所以必须用命令自行操作,当然普通硬盘替换普通硬盘也可以使用本方法,只是必要性不大.

1.首先用fdisk -l查看硬盘分区信息,这里假设旧硬盘是/dev/sda,存储空间1使用/dev/sda5,一般人可能是/dev/sda3,系统中raid是/dev/md2,新硬盘是/dev/nvme0n1
记下需要替换硬盘的分区大小
(/dev/sda5       21257952 976579231 955321280 455.5G fd Linux raid autodetect)

2.给新硬盘分区(前两个分区让群晖系统使用)
udevadm info /dev/nvme0n1 (这一步好像错误并且没有用处,因为出来是2G的,群晖7.0是8G的系统区,并且就算分成8G区,nvme硬盘也不会被同步为系统,只能做数据)
3.下面删除自动分的第三个分区,重新分成要替换硬盘的大小(没试过直接用大分区去和小分区创建raid,这里弄成同样大小)
fdisk /dev/nvme0n1
输入d,选3
输入n,选p,再输入上面记下的分区大小21257952和976579231,创建出一样大小的分区
输入t,选3,再输入fd,这是把分区改为raid类型,不然有可能不会自动raid
w保存

4.查看raid原来状态,正常是1个盘(这里是存储空间1,volume1,一般为raid2)
mdadm --detail /dev/md2

5.强制改变raid为两个盘
mdadm --grow --raid-devices=2 --force /dev/md2

6.将新分区加入raid中去
mdadm --manage /dev/md2 --add /dev/nvme0n1p3

7.再查看raid信息,Working Devices : 2,已经在rebuilding
mdadm --detail /dev/md2

8.等重建好了,可以关机直接移除旧盘,然后命令修复一下
mdadm --grow --raid-devices=1 --force /dev/md2

也可以用命令直接去除硬盘
1。将硬盘标记为损坏
mdadm /dev/md2 -f /dev/sda5
2、移除损坏的磁盘:
mdadm /dev/md2 -r /dev/sda5

如果对你有所帮助,请一定回复一下帖子.
回复 支持 反对 印象

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 返回列表 搜索 官方QQ群
懒人地图| 手机版|小黑屋| 智能生活 , 上那是云 |闽ICP备2020018196号-1 |网站地图