报错与解决 | 应用程序无法启动0x7b mysql

news/2024/11/15 0:53:43/

文章目录

  • 报错
  • 解决办法
  • 成功解决问题

报错

根据“MySQL下载安装使用-完整详细步骤”下载安装好MySQL后,以管理员身份启动cmd,输入:

"D:\mysql\mysql-5.7.31-winx64\bin \mysqld.exe" --initialize-insecure
# 自己的mysql安装目录 +  --initialize-insecure

运行后报错:
MSVCR120.dll丢失
应用程序无法启动0x7b mysql

解决办法

查阅资料,很多博主说可以使用DirectX修复工具一键修复。于是笔者下载了DirectX修复工具

下载链接:DirectX修复工具V4.2增强版。
DirectX修复工具介绍:DirectX修复工具增强版
Ps:感谢大神分享的免费下载链接😄

下载之后如下图所示:
在这里插入图片描述
双击DirectX Repair.exe即可自动检测并修复电脑现存的BUG。
(修复过程忘截图啦,总之,非常好用,非常便捷👍)

成功解决问题

再次以管理员身份打开cmd,运行代码,成功!
在这里插入图片描述


http://www.ppmy.cn/news/632623.html

相关文章

OXOOOOOO7B

stop:OXOOOOOO7B(硬盘蓝屏) 蓝屏故障: 1.硬盘随着新旧主板的更换蓝屏 2.标准IDE和AHCI控制器没有安装驱动 3.磁盘有错误,文件目录损坏 4.关闭IDE通道控制器 5.无盘网络,系统未安装客户端网卡驱动,虚拟磁盘控制器未安装。…

StableLM(stablelm-tuned-alpha-7b)中文能力测试

模型地址:https://huggingface.co/stabilityai/stablelm-tuned-alpha-7b 基模型:GPT-NeoX 环境:2块3090(24G) 运行代码: from transformers import AutoModelForCausalLM, AutoTokenizer, StoppingCrite…

AquilaChat-7B: 国产开源大模型新成员——AI领域的创新型研发机构智源人工智能研究院出品

当生成式AI和大模型的飓风呼啸而来,全球掀起了一场狂热的GPT竞赛,大量紧迫的前沿议题随之接踵而至: 语言、视觉、多模态大模型分别有哪些研究突破口?如何显著提升大模型的计算速度、效率和扩展性?怎样确保大模型始终安全可控、符合人类意图和价值观?国内产学研界亟待做些…

如何微调Chinese-Vicuna-7b模型

环境建议:使用谷歌云GCP,国内的云环境实在是太慢了哦。github慢,pip 慢,下载模型也慢。 1.下载环境 !git clone https://github.com/Facico/Chinese-Vicuna !pip install -r ./Chinese-Vicuna/requirements.txt 2. 准备数据 js…

修改7b2认证图标

修改7b2认证图标 原文链接:https://www.xiaohulizyw.com/2191.html 原生的认证图标有的人不是很喜欢,喜欢自己去自定义,那么如何去修改? 1、首先打开主题函数文件路径为:/wp-content/themes/b2/functions.php 第23行…

【AIGC】BaiChuan7B开源大模型介绍、部署以及创建接口服务

模型介绍 baichuan-7B是由百川智能开发的一个开源的大规模预训练模型。基于Transformer结构,在大约1.2万亿tokens上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。在标准的中文和英文权威benchmark(C-EVAL/MMLU&#x…

足够惊艳,使用Alpaca-Lora基于LLaMA(7B)二十分钟完成微调,效果比肩斯坦福羊驼

之前尝试了从0到1复现斯坦福羊驼(Stanford Alpaca 7B),Stanford Alpaca 是在 LLaMA 整个模型上微调,即对预训练模型中的所有参数都进行微调(full fine-tuning)。但该方法对于硬件成本要求仍然偏高且训练低效…

LLaMA:7B参数量的Baby版ChatGPT窥探

最近metaAI“不小心”泄露了自身的大语言模型LLaMA,本着好奇的心火速下载了LLaMA的权重,来试玩一下这个baby版的ChatGPT,为什么称作是baby版,是因为该权重还没有像ChatGPT那般Finetune过。 LLaMA各参数版本与GPT-3的性能对比如下…