Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >统信服务器操作系统【免费授权版】虚拟机环境控制中心显示未激活问题

统信服务器操作系统【免费授权版】虚拟机环境控制中心显示未激活问题

作者头像
Kevin song
发布于 2024-04-15 07:12:18
发布于 2024-04-15 07:12:18
1.4K01
代码可运行
举报
运行总次数:1
代码可运行

问题现象

正常情况下服务器免费授权版系统中应该会显示“免费授权”,并且不会出现未激活的提示。

系统显示未激活,但是有设备标识,系统标识,授权模式等信息,

①桌面背景显示未授权提示

②终端会打印系统未授权not activated的英文提示

授权工具查询系统当前授权状态

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
uos-activator-cmd -q

问题原因

系统使用镜像安装后无论是外网还是内网正常显示应该是免费激活,以及设备标识和系统标识等,通过排查发现问题机器是使用了虚拟化的克隆功能导致的授权问题,系统有安全校验,克隆的系统不满足条件会提示未激活。

解决方案

1,删除虚拟机环境中的系统文件

/etc/.uos/.license.xkey

2,删除之后请重启系统,重启后系统激活状态会恢复正常,显示免费授权,且系统不再提示not activated。

系统开机弹出密钥环弹窗

密钥环是一个以加密方式存储用户登录信息的本地数据库。各类桌面版本上的应用,例如浏览器、电子邮件客户端等,使用密钥环来安全的存储并管理用户登录凭证、机密、密码、证书或密钥。对于需要检索存储在密钥环中信息的应用程序,需要解锁密钥环。

(方案一)进入Home目录,删除遗留的密钥KEY即可。双击桌面计算机,进入数据盘,使用“Ctrl+H”组合键打开隐藏文件夹,依次打开.local、share、keyrings文件夹,删除login.keyring文件即可

(方案二)"Ctrl+Alt+F2"切换到tty2虚拟终端字符界面并登录

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
执行"rm ~/.local/share/keyrings/login.keyring"删除login.keyring文件

重启系统

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
reboot

相关建议

使用kvm等虚拟化环境的时候,制作的模板机器在使用克隆或者下发模板前请将/etc/.uos/.license.xkey文件删除。

统信UOS镜像下载链接

https://www.chinauos.com/resource/download-server-ufu

统信服务器操作系统V20(免费使用授权)为免费使用 统信服务器操作系统V20 授权的方式,无限制体验统信服务器UOS的产品功能。服务器(免费使用授权)可通过购买授权或订阅升级到商业版。通过下载统信服务器操作系统V20(1060),在安装时,授权类型选择“免费使用授权”体验服务器UOS。

统信服务器操作系统免费使用授权介绍

https://www.uniontech.com/next/product/UOS-Free-Use

UOS V20 商业版本和免费使用授权版本对比介绍

UOS官方运维知识库文档

https://faq.uniontech.com/sever/sysmain/1aac

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-04-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 开源搬运工宋师傅 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Transformers 4.37 中文文档(三十七)
OpenAI GPT-2 模型是由 Alec Radford、Jeffrey Wu、Rewon Child、David Luan、Dario Amodei 和 Ilya Sutskever 在 OpenAI 提出的,它是一个因果(单向)变压器,使用语言建模在一个大约 40GB 的文本数据语料库上进行预训练。
ApacheCN_飞龙
2024/06/26
1540
Transformers 4.37 中文文档(五十)
OPT 模型是由 Meta AI 在Open Pre-trained Transformer Language Models中提出的。OPT 是一系列开源的大型因果语言模型,性能与 GPT3 相似。
ApacheCN_飞龙
2024/06/26
4460
Transformers 4.37 中文文档(五十)
Transformers 4.37 中文文档(六十)
T5v1.1 是由 Colin Raffel 等人在google-research/text-to-text-transfer-transformer存储库中发布的。这是原始 T5 模型的改进版本。这个模型是由patrickvonplaten贡献的。原始代码可以在这里找到。
ApacheCN_飞龙
2024/06/26
3600
Transformers 4.37 中文文档(三十九)
Jukebox 模型在 Jukebox: A generative model for music 中由 Prafulla Dhariwal, Heewoo Jun, Christine Payne, Jong Wook Kim, Alec Radford, Ilya Sutskever 提出。它引入了一个生成音乐模型,可以生成可以根据艺术家、流派和歌词进行条件化的一分钟长样本。
ApacheCN_飞龙
2024/06/26
1750
Transformers 4.37 中文文档(五十九)
SwitchTransformers 模型是由 William Fedus、Barret Zoph 和 Noam Shazeer 在Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity中提出的。
ApacheCN_飞龙
2024/06/26
6940
Transformers 4.37 中文文档(三十六)
我们介绍了 GPT-NeoX-20B,这是一个拥有 200 亿参数的自回归语言模型,经过 Pile 训练,其权重将通过宽松许可证免费向公众开放。据我们所知,这是在提交时具有公开可用权重的最大稠密自回归模型。在这项工作中,我们描述了 GPT-NeoX-20B 的架构和训练,并评估了其在一系列语言理解、数学和基于知识的任务上的性能。我们发现,GPT-NeoX-20B 是一个特别强大的少样本推理器,在进行五次评估时性能提升明显,而与大小相似的 GPT-3 和 FairSeq 模型相比。我们开源了训练和评估代码,以及模型权重,链接为 github.com/EleutherAI/gpt-neox。
ApacheCN_飞龙
2024/06/26
4510
Transformers 4.37 中文文档(三十六)
Transformers 4.37 中文文档(二十五)
请注意,BlenderbotSmallModel 和 BlenderbotSmallForConditionalGeneration 仅与检查点facebook/blenderbot-90M结合使用。较大的 Blenderbot 检查点应该与 BlenderbotModel 和 BlenderbotForConditionalGeneration 一起使用
ApacheCN_飞龙
2024/06/26
2060
Transformers 4.37 中文文档(五十六)
RoBERTa-PreLayerNorm 模型由 Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, Michael Auli 在 fairseq: A Fast, Extensible Toolkit for Sequence Modeling 中提出。它与在 fairseq 中使用 --encoder-normalize-before 标志相同。
ApacheCN_飞龙
2024/06/26
1850
Transformers 4.37 中文文档(四十)
Hugo Touvron、Thibaut Lavril、Gautier Izacard、Xavier Martinet、Marie-Anne Lachaux、Timothée Lacroix、Baptiste Rozière、Naman Goyal、Eric Hambro、Faisal Azhar、Aurelien Rodriguez、Armand Joulin、Edouard Grave、Guillaume Lample 在LLaMA: Open and Efficient Foundation Language Models中提出了 LLaMA 模型。它是一个包含从 7B 到 65B 参数的基础语言模型的集合。
ApacheCN_飞龙
2024/06/26
6380
Transformers 4.37 中文文档(四十六)
MPNet 模型由 Kaitao Song,Xu Tan,Tao Qin,Jianfeng Lu,Tie-Yan Liu 在MPNet: Masked and Permuted Pre-training for Language Understanding中提出。
ApacheCN_飞龙
2024/06/26
2280
Transformers 4.37 中文文档(九十)
LiLT 模型在Jiapeng Wang, Lianwen Jin, Kai Ding 撰写的《LiLT: A Simple yet Effective Language-Independent Layout Transformer for Structured Document Understanding》中提出。LiLT 允许将任何预训练的 RoBERTa 文本编码器与轻量级的 Layout Transformer 结合起来,以实现多种语言的 LayoutLM 类似文档理解。
ApacheCN_飞龙
2024/06/26
3130
Transformers 4.37 中文文档(九十)
Transformers 4.37 中文文档(六十三)
XLM-RoBERTa-XL 模型是由 Naman Goyal、Jingfei Du、Myle Ott、Giri Anantharaman、Alexis Conneau 在用于多语言掩码语言建模的更大规模 Transformer中提出的。
ApacheCN_飞龙
2024/06/26
3620
Transformers 4.37 中文文档(二十四)
BigBird 模型是由 Zaheer, Manzil 和 Guruganesh, Guru 以及 Dubey, Kumar Avinava 和 Ainslie, Joshua 和 Alberti, Chris 和 Ontanon, Santiago 和 Pham, Philip 和 Ravula, Anirudh 和 Wang, Qifan 和 Yang, Li 等人在Big Bird: Transformers for Longer Sequences中提出的。BigBird 是一种基于稀疏注意力的 Transformer,它将 Transformer 模型(如 BERT)扩展到更长的序列。除了稀疏注意力,BigBird 还将全局注意力以及随机注意力应用于输入序列。从理论上讲,已经证明应用稀疏、全局和随机注意力可以逼近全注意力,同时对于更长的序列来说在计算上更加高效。由于具有处理更长上下文的能力,BigBird 在各种长文档 NLP 任务上表现出比 BERT 或 RoBERTa 更好的性能,如问答和摘要。
ApacheCN_飞龙
2024/06/26
1570
Transformers 4.37 中文文档(五十五)
如果您在运行此模型时遇到任何问题,请重新安装支持此模型的最后一个版本:v4.30.0。您可以通过运行以下命令来执行:pip install -U transformers==4.30.0。
ApacheCN_飞龙
2024/06/26
3400
Transformers 4.37 中文文档(三十二)
本页面提供了 Meta AI 基础人工智能研究团队的 Transformer 蛋白质语言模型的代码和预训练权重,提供了最先进的 ESMFold 和 ESM-2,以及之前发布的 ESM-1b 和 ESM-1v。Transformer 蛋白质语言模型是由 Alexander Rives、Joshua Meier、Tom Sercu、Siddharth Goyal、Zeming Lin、Jason Liu、Demi Guo、Myle Ott、C. Lawrence Zitnick、Jerry Ma 和 Rob Fergus 在论文Biological structure and function emerge from scaling unsupervised learning to 250 million protein sequences中引入的。该论文的第一个版本于 2019 年预印。
ApacheCN_飞龙
2024/06/26
7070
Transformers 4.37 中文文档(三十二)
Transformers 4.37 中文文档(二十一)
Bart 模型是由 Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov 和 Luke Zettlemoyer 在 2019 年 10 月 29 日提出的,题为 BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension。
ApacheCN_飞龙
2024/06/26
2240
Transformers 4.37 中文文档(五十四)
REALM 模型是由 Kelvin Guu、Kenton Lee、Zora Tung、Panupong Pasupat 和 Ming-Wei Chang 在REALM: Retrieval-Augmented Language Model Pre-Training中提出的。这是一个检索增强语言模型,首先从文本知识语料库中检索文档,然后利用检索到的文档来处理问答任务。
ApacheCN_飞龙
2024/06/26
2920
Transformers 4.37 中文文档(六十二)
**免责声明:**如果您看到异常情况,请提交GitHub 问题并指定@patrickvonplaten
ApacheCN_飞龙
2024/06/26
3100
Transformers 4.37 中文文档(二十六)
如果您在运行此模型时遇到任何问题,请重新安装支持此模型的最后一个版本:v4.30.0。您可以通过运行以下命令来执行:pip install -U transformers==4.30.0。
ApacheCN_飞龙
2024/06/26
4260
Transformers 4.37 中文文档(四十五)
MegatronGPT2 模型是由 Mohammad Shoeybi、Mostofa Patwary、Raul Puri、Patrick LeGresley、Jared Casper 和 Bryan Catanzaro 在使用模型并行训练多十亿参数语言模型的 Megatron-LM中提出的。
ApacheCN_飞龙
2024/06/26
3670
Transformers 4.37 中文文档(四十五)
相关推荐
Transformers 4.37 中文文档(三十七)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验