MemoryError: Unable to allocate array with shape (60000, 28, 28) and data type float 32等类似情况

news/2024/11/6 7:16:45/

MemoryError: Unable to allocate array with shape (60000, 28, 28) and data type float 32等类似情况,不要担心,办法很简单,解决办法如下:

1.引起此类问题的原因是电脑虚拟内存占用太大,因此只需要修改电脑的虚拟内存,此类问题即可迎刃而解。

##下面是修改虚拟内存的办法:
2.打开系统属性;在命令窗口输入编辑环境变量如图所示,点击编辑环境变量。![在这里插入图片描述](https://img-blog.csdnimg.cn/20200219203839554.png在这里插入图片描述

2.进入编辑环境变量,如图所示;

在这里插入图片描述

3.进入设置,上图虚拟内存的设置,进入性能选项,如下图所示;

在这里插入图片描述

4.点击更改进入下面图示虚拟内存(注意对应,你要错了)

在这里插入图片描述

5.根据自己的电脑,修改相应的配置即可,最后点击设置然后一直点击确定即可。

6最后回到所要运行的程序,问题就被解决了,如果依然出现问题,可以尝试关机重启电脑。


http://www.ppmy.cn/news/601611.html

相关文章

Kafka报错org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.

问题描述 kafka producer/consumer连接kafka broker超时,报错日志: org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms. 解决办法 假如:kafka broker部署在172.17.162.198(主机名为…

kafka生产者报错Failed to update metadata after 60000 ms.

背景 由于新增一个对接渠道,系统要对Kafka的消息进行消费,由于对接方目前没有环境,所以自己本地开发,并且使用环境中的一台kafka作为开发使用,本地自己设置producer和consumer,分别作为生产者和消费者。 …

关于mysql报 loopWaitCount 0, wait millis 60000 错误的解决办法

最近遇到个比较奇怪的问题,用户的网站百万级访问量,最近没有修改程序,也没有改过其他地方,最近总是运行20几个小时左右tomcat就假死一次,访问无响应!!经常过检查 日志发现 里面报了一个错误 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30…

Kafka问题(3):Failed to allocate memory within the configured max blocking time 60000 ms

记录kafka出现的问题,原因,与对应场景下的解决方案. 造成问题方式有很多种,这里只是记录遇到的或已知的,若有遗漏情况欢迎补充 由于问题很多出现在生产环境,故敏感信息已屏蔽,不影响问题介绍 文章目录 环境…

com.alibaba.druid.pool.GetConnectionTimeoutException:loopWaitCount 0, wait millis 60000,active 50

druid异常—— Caused by: com.alibaba.druid.pool.GetConnectionTimeoutException: loopWaitCount 0, wait millis 60000, active 50at com.alibaba.druid.pool.DruidDataSource.pollLast(DruidDataSource.java:1375)at com.alibaba.druid.pool.DruidDataSource.getConnectio…

关于org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.问题的解决

关于org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.问题的解决 今天在测试自己编写的kafka消息发送接收小例子时,一直报org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 …

kafka连接异常org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.

前言:网上很多说是hosts的问题,我经过测试发现不是,经过我自己测试,介绍三种针对大部分问题的解决方法 1.未开放防火墙端口或关闭防火墙 防火墙一般本地测试才会关闭,线上一般都是开启的,建议还是添加端口…

canal Failed to update metadata after 60000 ms 等问题解决

问题排查了一天,很长 问题描述: 需求 需要将mysql数据通过canal传入kafka 测试将正则匹配的表按照字段动态存入不同topic中 例如存在两类表 A_1 , A_2 , A_3 , B_1 , B_2 , B_3 A类表 -> topic_1 B类表 -> topic_2 canal最初对应配置如下 cana…