【机器学习实战中阶】比特币价格预测

embedded/2025/1/23 13:20:56/

在这里插入图片描述

比特币价格预测项目介绍

比特币价格预测项目是一个非常有实用价值的机器学习项目。随着区块链技术的快速发展,越来越多的数字货币如雨后春笋般涌现,尤其是比特币作为最早的加密货币,其价格波动备受全球投资者和研究者的关注。本项目的目标是通过分析比特币的历史数据,建立一个能够预测未来比特币价格的机器学习模型,帮助用户更好地理解和应对市场的波动。

项目背景

比特币(Bitcoin)是一种去中心化的数字货币,由中本聪(Satoshi Nakamoto)在2008年提出,并于2009年正式发布。与传统的法定货币不同,比特币不依赖于任何中央银行或金融机构,而是基于区块链技术,通过分布式账本记录所有的交易。比特币的总量被限制在2100万枚,这使得它具备了稀缺性,也为其价格波动提供了基础。

近年来,随着加密货币市场的迅速扩展,比特币的价格经历了多次剧烈波动。投资者、金融机构以及普通用户都对比特币的未来价格走势充满好奇。然而,由于比特币市场的高度不确定性,预测其价格变化并非易事。因此,通过机器学习技术来分析历史数据,进而预测比特币的价格走势,成为一个极具吸引力的项目。

项目目标

本项目的主要目标是通过机器学习模型来预测比特币的未来价格,具体目标包括以下几个方面:

  1. 数据收集与预处理:首先,项目需要收集大量的历史数据,包括比特币的每日价格(开盘价、收盘价、最高价、最低价)、交易量、市场情绪指数、宏观经济指标等。数据来源可以包括加密货币交易平台、新闻媒体、社交媒体等。收集到的数据需要进行清洗、标准化和特征提取,以确保输入模型的数据质量。

  2. 特征工程:在数据预处理的基础上,进行特征工程,提取对价格预测有帮助的特征。例如,时间序列特征(如移动平均线、波动率)、技术指标(如MACD、RSI)等。通过特征工程,可以更好地捕捉比特币价格变化的规律。

  3. 模型选择与训练:选择合适的机器学习算法来构建预测模型。常用的算法包括线性回归、随机森林、支持向量机(SVM)、长短期记忆网络(LSTM)等。由于比特币价格的预测是一个时间序列问题,LSTM等深度学习算法可能具有更好的表现。通过交叉验证和超参数调优,确保模型的准确性和鲁棒性。

  4. 模型评估与优化:使用历史数据对模型进行评估,通过均方误差(MSE)、平均绝对误差(MAE)等指标衡量模型的预测效果。同时,进行回测(Backtesting)来验证模型在不同时间段的表现,确保其在实际应用中的稳定性。

  5. 预测与应用:训练好的模型可以用于预测未来的比特币价格。通过可视化工具,用户可以直观地查看预测结果。此外,该模型还可以集成到加密货币交易系统中,帮助投资者制定交易策略。在实际应用中,用户可以根据模型的预测结果调整投资组合,降低市场风险。

项目意义

比特币价格预测项目不仅具有学术研究价值,还具备广泛的实际应用前景。对于投资者而言,准确的比特币价格预测可以帮助他们更好地把握市场机会,降低投资风险。对于金融机构和研究机构而言,该项目可以为加密货币市场的研究和监管提供重要的参考依据。

此外,随着区块链技术的不断发展,数字货币市场的规模和影响力也在不断扩大。比特币作为加密货币市场的风向标,其价格波动对整个市场都有着重大影响。通过该项目的研究,可以帮助我们更好地理解加密货币市场的运行规律,推动区块链技术的进一步发展。

技术难点与挑战

尽管比特币价格预测项目具有很大的潜力,但在实际操作中也面临着一些技术难点和挑战:

  1. 数据质量问题:比特币市场的数据来源复杂,数据质量参差不齐,可能包含缺失值、异常值等问题。如何有效地清洗和处理这些数据是一个重要的挑战。

  2. 市场的不确定性:比特币市场受到多种因素的影响,包括政策法规、市场情绪、技术进步等。这些因素的复杂性和不确定性使得价格预测变得异常困难。

  3. 模型的泛化能力:由于比特币价格的高波动性,模型需要在不同的市场环境下保持较好的预测能力。如何提高模型的泛化能力是一个重要的研究方向。

  4. 实时性要求:在实际应用中,模型需要能够实时处理和预测,这对计算能力和系统响应速度提出了较高的要求。

总结

比特币价格预测项目是一个结合了金融、数据科学和机器学习的综合性项目。通过分析历史数据并结合机器学习算法,项目旨在开发出一个准确、稳定的比特币价格预测模型。该模型不仅可以为个人投资者提供决策支持,还可以为金融机构和研究者提供有价值的市场分析工具。希望该项目能够为加密货币市场的进一步发展提供新的思路和方法。

接下来就开启我们的旅程吧!

序列模型介绍

序列模型是指那些处理数据序列的机器学习模型。序列数据包括文本流、音频片段、视频片段、时间序列数据等。递归神经网络(Recurrent Neural Networks, RNN)是序列模型中最受欢迎的算法之一。

以下代码导入了多个用于处理序列数据和绘图的模块,并设置了绘图库的基础配置。这段代码的主要目的是准备所需的库,以便后续处理数据和生成可视化图表。

python">from math import sqrt  # 从 math 模块中导入 sqrt 函数,用于计算平方根
from numpy import concatenate  # 从 NumPy 模块中导入 concatenate 函数,用于合并多个数组
from matplotlib import pyplot  # 导入 Matplotlib 的 Pyplot 模块,用于绘制数据图形
import pandas as pd  # 导入 Pandas 模块,用于数据处理和分析
from datetime import datetime  # 从 datetime 模块中导入 datetime 类,用于处理日期和时间
from sklearn.preprocessing import MinMaxScaler  # 从 sklearn.preprocessing 模块中导入 MinMaxScaler 类,用于数据归一化
from sklearn.preprocessing import LabelEncoder  # 从 sklearn.preprocessing 模块中导入 LabelEncoder 类,用于标签编码
from sklearn.metrics import mean_squared_error  # 从 sklearn.metrics 模块中导入 mean_squared_error 函数,用于计算均方误差# 以下代码导入了 Keras 库中的模型和层,用于构建递归神经网络(RNN)
from keras.models import Sequential  # 从 Keras 模块中导入 Sequential 类,用于构建顺序模型
'''Dense Layer 是一个简单的神经元层,其中每个神经元都从上一层的所有神经元接收输入,因此称为全连接层。Dense Layer 通常用于根据卷积层的输出对图像进行分类。'''
from keras.layers import Dense  # 从 Keras.layers 模块中导入 Dense 类,用于添加全连接层
from keras.layers import LSTM  # 从 Keras.layers 模块中导入 LSTM 类,用于添加长短时记忆层# 以下代码导入了 Plotly 库中的离线绘图模块,用于在 Jupyter Notebook 中离线绘制图表
'''使用 plotly.offline.iplot() 在离线状态下在 Jupyter Notebook 中显示图表。
注意 − 需要 Plotly 版本 1.9.4+ 才能进行离线绘图。
更改脚本中的 plot() 函数语句并运行。
将在本地创建一个名为 temp-plot.html 的 HTML 文件,并在浏览器中打开。'''
import plotly.offline as py  # 导入 Plotly 的离线模块,用于离线绘图'''The plotly. graph_objects 模块(通常导入为 go)包含一个自动生成的 Python 类层次结构,这些类代表了此图形模式中的非叶节点。
术语 "graph objects" 指的是这些类的实例。plotly 中定义的主要类。'''
import plotly.graph_objs as go  # 导入 Plotly 的 graph_objects 模块,用于创建绘图对象import numpy as np  # 导入 NumPy 模块,用于数值计算
import seaborn as sns  # 导入 Seaborn 模块,用于绘制统计图形# py.init_notebook_mode(connected=True)  # 这行代码允许我们在离线版本的 Plotly 中工作
# %matplotlib inline  # %matplotlib inline 命令告诉 IPython 环境在当前单元格之后立即绘制图表
代码总结

这段代码的主要目的是导入处理序列数据和生成可视化图表所需的库。具体来说:

  1. 数学运算:导入了 sqrt 函数,用于计算平方根。
  2. 数组操作:导入了 concatenate 函数,用于合并多个数组。
  3. 绘图:导入了 Matplotlib 的 pyplot 模块,用于绘制数据图形;导入了 Plotly 的 offline 模块,用于在 Jupyter Notebook 中离线绘制图表;导入了 Seaborn 模块,用于绘制统计图形。
  4. 数据处理:导入了 Pandas 模块,用于数据处理和分析;导入了 datetime 类,用于处理日期和时间。
  5. 数据预处理:导入了 MinMaxScaler 类,用于数据归一化;导入了 LabelEncoder 类,用于标签编码。
  6. 模型评估:导入了 mean_squared_error 函数,用于计算均方误差。
  7. 深度学习模型:导入了 Keras 库中的 Sequential 类,用于构建顺序模型;导入了 Dense 类,用于添加全连接层;导入了 LSTM 类,用于添加长短时记忆层。

读取数据集并进行可视化

以下代码读取数据集并进行基本的信息查看,然后绘制基于加权价格的折线图。接着,代码将加权价格中的 0 值替换为 NaN,并使用前向填充方法填充这些值,最后再次绘制折线图以显示填充后的数据。

python"># 读取数据集并进行基本的信息查看
data = pd.read_csv(filepath_or_buffer="../input/btcusdkraken/BTCUSDKRAKEN", index_col="Date")  # 从指定路径读取 CSV 文件,并将 "Date" 列设置为索引
data.info()  # 打印数据集的基本信息,包括每列的数据类型和非空值数量data.head()  # 显示数据集的前 5 行
data.tail()  # 显示数据集的最后 5 行# 绘制基于加权价格的折线图
btc_trace = go.Scatter(x=data.index, y=data['Weighted Price'], name='Price')  # 创建一个折线图数据对象,x 轴为日期,y 轴为加权价格,图例名称为 "Price"
py.iplot([btc_trace])  # 在 Jupyter Notebook 中显示折线图# 将加权价格中的 0 值替换为 NaN,然后使用前向填充方法填充这些值
data['Weighted Price'].replace(0, np.nan, inplace=True)  # 将加权价格列中的 0 值替换为 NaN
data['Weighted Price'].fillna(method='ffill', inplace=True)  # 使用前向填充方法(ffill)填充 NaN 值# 再次绘制基于加权价格的折线图,显示填充后的数据
btc_trace = go.Scatter(x=data.index, y=data['Weighted Price'], name='Price')  # 创建一个新的折线图数据对象,x 轴为日期,y 轴为加权价格,图例名称为 "Price"
py.iplot([btc_trace])  # 在 Jupyter Notebook 中显示新的折线图

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

使用加权价格作为特征训练 LSTM 模型

使用加权价格作为特征来训练 LSTM 模型。使用 MinMaxScaler 将加权价格归一化到 0 到 1 的范围内。然后将数据集的 70% 用于训练,30% 用于测试。接下来,创建一个函数来生成具有回溯窗口的数据集,并生成训练和测试数据集。为了训练模型,将 X 重塑为适合 LSTM 输入的形状。运行 LSTM 模型 300 个周期,并绘制损失曲线。使用测试数据进行预测,并绘制预测值与真实值的折线图。最后,将预测值和真实值反归一化为原始值,并计算 RMSE。再次绘制预测值与真实值的折线图,这次以美元为单位。将 X 转换为日期,并将预测值和真实值重塑为适合 Plotly 绘图的形状。最后,使用 Plotly 绘制预测值和真实值的折线图,其中 X 轴为日期,Y 轴为美元价格。

代码翻译及详细注释

读取数据集并进行归一化

代码总结
这段代码的主要目的是读取数据集中的加权价格,并使用 MinMaxScaler 将其归一化到 0 到 1 的范围内。

python">from sklearn.preprocessing import MinMaxScaler  # 从 sklearn.preprocessing 模块中导入 MinMaxScaler 类,用于数据归一化values = data['Weighted Price'].values.reshape(-1, 1)  # 从数据集中提取 "Weighted Price" 列的值,并将其重塑为列向量
values = values.astype('float32')  # 将提取的值转换为浮点数类型
scaler = MinMaxScaler(feature_range=(0, 1))  # 创建一个 MinMaxScaler 对象,将数据归一化到 0 到 1 的范围内
scaled = scaler.fit_transform(values)  # 使用 MinMaxScaler 对数据进行归一化处理
划分训练集和测试集

代码总结
这段代码的主要目的是将归一化后的数据集划分为训练集和测试集,其中 70% 的数据用于训练,30% 的数据用于测试。

python">train_size = int(len(scaled) * 0.7)  # 计算训练集的大小,占数据集的 70%
test_size = len(scaled) - train_size  # 计算测试集的大小,占数据集的 30%
train, test = scaled[0:train_size, :], scaled[train_size:len(scaled), :]  # 将数据集划分为训练集和测试集
print(len(train), len(test))  # 打印训练集和测试集的长度

在这里插入图片描述

创建具有回溯窗口的数据集

代码总结
这段代码的主要目的是创建一个函数 create_dataset,该函数生成具有指定回溯窗口的数据集,并将其用于生成训练和测试数据集。

python">def create_dataset(dataset, look_back=1):dataX, dataY = [], []  # 初始化数据集的输入和输出列表for i in range(len(dataset) - look_back):a = dataset[i:(i + look_back), 0]  # 获取回溯窗口内的数据dataX.append(a)  # 将回溯窗口内的数据添加到输入列表dataY.append(dataset[i + look_back, 0])  # 将下一个时间点的数据添加到输出列表print(len(dataY))  # 打印输出数据集的长度return np.array(dataX), np.array(dataY)  # 返回输入和输出数据集,转换为 NumPy 数组look_back = 1  # 设置回溯窗口的大小为 1
trainX, trainY = create_dataset(train, look_back)  # 使用训练集生成带有回溯窗口的训练数据集
testX, testY = create_dataset(test, look_back)  # 使用测试集生成带有回溯窗口的测试数据集

在这里插入图片描述

重塑 X 以适应模型训练

代码总结
这段代码的主要目的是将训练和测试数据集中的输入数据 trainXtestX 重塑为适合 LSTM 模型输入的形状。

python">trainX = np.reshape(trainX, (trainX.shape[0], 1, trainX.shape[1]))  # 将 trainX 重塑为 [样本数, 时间步数, 特征数] 的形状
testX = np.reshape(testX, (testX.shape[0], 1, testX.shape[1]))  # 将 testX 重塑为 [样本数, 时间步数, 特征数] 的形状
运行 LSTM 模型

代码总结
这段代码的主要目的是构建并训练一个 LSTM 模型,使用训练数据集进行 300 个周期的训练,并在测试数据集上进行验证。

python">model = Sequential()  # 创建一个顺序模型
model.add(LSTM(100, input_shape=(trainX.shape[1], trainX.shape[2])))  # 添加一个 LSTM 层,设置 100 个神经元,输入形状为 [时间步数, 特征数]
model.add(Dense(1))  # 添加一个全连接层,输出维度为 1
model.compile(loss='mae', optimizer='adam')  # 编译模型,使用均绝对误差(MAE)作为损失函数,Adam 优化器
history = model.fit(trainX, trainY, epochs=300, batch_size=100, validation_data=(testX, testY), verbose=0, shuffle=False)  # 训练模型,训练 300 个周期,每批 100 个样本,使用测试数据集进行验证
绘制训练和验证损失曲线

代码总结
这段代码的主要目的是绘制训练和验证过程中的损失曲线,以便观察模型的训练效果。

python">pyplot.plot(history.history['loss'], label='train')  # 绘制训练损失曲线,并添加标签 "train"
pyplot.plot(history.history['val_loss'], label='test')  # 绘制验证损失曲线,并添加标签 "test"
pyplot.legend()  # 添加图例
pyplot.show()  # 显示图表
使用测试数据进行预测并绘制折线图

代码总结
这段代码的主要目的是使用训练好的 LSTM 模型对测试数据进行预测,并绘制预测值与真实值的折线图。

python">yhat = model.predict(testX)  # 使用训练好的模型对测试数据进行预测
pyplot.plot(yhat, label='predict')  # 绘制预测值折线图,并添加标签 "predict"
pyplot.plot(testY, label='true')  # 绘制真实值折线图,并添加标签 "true"
pyplot.legend()  # 添加图例
pyplot.show()  # 显示图表

在这里插入图片描述

将预测值和真实值反归一化为原始值

代码总结
这段代码的主要目的是将预测值和真实值从归一化范围反归一化为原始值,并计算 RMSE。

python">yhat_inverse = scaler.inverse_transform(yhat.reshape(-1, 1))  # 将预测值反归一化为原始值
testY_inverse = scaler.inverse_transform(testY.reshape(-1, 1))  # 将真实值反归一化为原始值rmse = sqrt(mean_squared_error(testY_inverse, yhat_inverse))  # 计算预测值和真实值之间的均方根误差(RMSE)
print('Test RMSE: %.3f' % rmse)  # 打印测试 RMSE

在这里插入图片描述

绘制以美元为单位的折线图

代码总结
这段代码的主要目的是绘制预测值和真实值的折线图,Y 轴以美元为单位。

python">pyplot.plot(yhat_inverse, label='predict')  # 绘制预测值折线图,并添加标签 "predict"
pyplot.plot(testY_inverse, label='actual', alpha=0.5)  # 绘制真实值折线图,并添加标签 "actual",透明度为 0.5
pyplot.legend()  # 添加图例
pyplot.show()  # 显示图表
将 X 转换为日期

代码总结
这段代码的主要目的是将测试数据集的索引转换为日期。

python">predictDates = data.tail(len(testX)).index  # 获取测试数据集对应的日期索引
重塑测试数据和预测数据以适应 Plotly 绘图

代码总结
这段代码的主要目的是将反归一化后的测试数据和预测数据重塑为适合 Plotly 绘图的形状。

python">testY_reshape = testY_inverse.reshape(len(testY_inverse))  # 将真实值重塑为一维数组
yhat_reshape = yhat_inverse.reshape(len(yhat_inverse))  # 将预测值重塑为一维数组
使用 Plotly 绘制预测值和真实值的折线图

代码总结
这段代码的主要目的是使用 Plotly 绘制预测值和真实值的折线图,X 轴为日期,Y 轴为美元价格。

python">actual_chart = go.Scatter(x=predictDates, y=testY_reshape, name='Actual Price')  # 创建一个折线图数据对象,x 轴为日期,y 轴为真实值,图例名称为 "Actual Price"
predict_chart = go.Scatter(x=predictDates, y=yhat_reshape, name='Predict Price')  # 创建一个折线图数据对象,x 轴为日期,y 轴为预测值,图例名称为 "Predict Price"
py.iplot([predict_chart, actual_chart])  # 在 Jupyter Notebook 中显示折线图

使用额外特征进行模型训练

使用加权价格以及其他特征来训练 LSTM 模型。首先,找到特征与加权价格之间的相关性。通过绘制热力图,可以观察到交易量(Volume)与加权价格之间存在相关性,而开盘价(Open)、最高价(High)、最低价(Low)和收盘价(Close)则直接与加权价格相关。然后,创建一个函数 series_to_supervised 将数据序列转换为监督学习问题。接下来,提取所有相关特征的值,并将其归一化到 0 到 1 的范围内。将数据集转换为监督学习问题,并删除不必要的列。将数据集划分为 70% 的训练集和 30% 的测试集。训练 LSTM 模型 300 个周期,并绘制每个周期的损失曲线。使用测试数据进行预测,并绘制预测值与真实值的折线图。最后,将预测值和真实值反归一化为原始值,并计算 RMSE。绘制包含真实价格、单特征预测价格和多特征预测价格的折线图。结果显示,使用多特征的 LSTM 模型比使用单特征的 LSTM 模型更加准确。

找到特征与加权价格之间的相关性

代码总结
这段代码的主要目的是绘制数据集特征之间的相关性热力图,观察特征与加权价格之间的相关性。

python">import seaborn as sns  # 导入 seaborn 模块,用于绘制热力图# 绘制数据集特征之间的相关性热力图
sns.heatmap(data.corr(), annot=True, cmap='RdYlGn', linewidths=0.1, vmin=0)  # 使用 data.corr() 计算特征之间的相关性矩阵,并绘制热力图
# annot=True 表示在格子中显示相关性数值
# cmap='RdYlGn' 设置颜色主题
# linewidths=0.1 设置格子间的线条宽度
# vmin=0 设置热力图的最小值为 0# 观察:交易量(Volume)与加权价格(Weighted Price)之间存在相关性
# 开盘价(Open)、最高价(High)、最低价(Low)和收盘价(Close)直接与加权价格相关
函数 series_to_supervised 用于将数据序列转换为监督学习问题

代码总结
这段代码的主要目的是定义一个函数 series_to_supervised,将时间序列数据转换为监督学习问题,以便用于 LSTM 模型的训练。

python">def series_to_supervised(data, n_in=1, n_out=1, dropnan=True):n_vars = 1 if type(data) is list else data.shape[1]  # 确定特征的数量df = pd.DataFrame(data)  # 将数据转换为 DataFramecols, names = list(), list()  # 初始化列和列名列表# 输入序列(t-n, ..., t-1)for i in range(n_in, 0, -1):cols.append(df.shift(i))  # 将数据向后移 i 个时间步names += [('var%d(t-%d)' % (j+1, i)) for j in range(n_vars)]  # 生成列名# 预测序列(t, t+1, ..., t+n)for i in range(0, n_out):cols.append(df.shift(-i))  # 将数据向前移 i 个时间步if i == 0:names += [('var%d(t)' % (j+1)) for j in range(n_vars)]  # 生成当前时间步的列名else:names += [('var%d(t+%d)' % (j+1, i)) for j in range(n_vars)]  # 生成未来时间步的列名# 合并所有列agg = pd.concat(cols, axis=1)  # 按列合并所有数据agg.columns = names  # 设置列名# 删除包含 NaN 值的行if dropnan:agg.dropna(inplace=True)  # 删除包含 NaN 值的行return agg  # 返回转换后的数据集
获取所有相关特征的值

代码总结
这段代码的主要目的是从数据集中提取加权价格、交易量(BTC)和交易量(货币单位)的值,并将其转换为浮点数类型。

python">values = data[['Weighted Price'] + ['Volume (BTC)'] + ['Volume (Currency)']].values  # 从数据集中提取 "Weighted Price"、"Volume (BTC)" 和 "Volume (Currency)" 列的值
values = values.astype('float32')  # 将提取的值转换为浮点数类型
归一化特征值

代码总结
这段代码的主要目的是使用 MinMaxScaler 将提取的特征值归一化到 0 到 1 的范围内。

python">scaler = MinMaxScaler(feature_range=(0, 1))  # 创建一个 MinMaxScaler 对象,将数据归一化到 0 到 1 的范围内
scaled = scaler.fit_transform(values)  # 使用 MinMaxScaler 对数据进行归一化处理
将数据转换为监督学习问题

代码总结
这段代码的主要目的是将归一化后的数据转换为监督学习问题,并删除不必要的列。

python">reframed = series_to_supervised(scaled, 1, 1)  # 将归一化后的数据转换为监督学习问题,回溯窗口为 1,预测窗口为 1
reframed.head()  # 显示转换后的数据集的前 5 行# 删除不必要的列
reframed.drop(reframed.columns[[4, 5]], axis=1, inplace=True)  # 删除第 4 和第 5 列
print(reframed.head())  # 打印删除列后的数据集前 5 行

在这里插入图片描述
在这里插入图片描述

划分训练集和测试集

代码总结
这段代码的主要目的是将数据集划分为 70% 的训练集和 30% 的测试集,并将输入和输出数据分开。

python">values = reframed.values  # 获取转换后的数据集的值
n_train_hours = int(len(values) * 0.7)  # 计算训练集的大小,占数据集的 70%
train = values[:n_train_hours, :]  # 划分训练集
test = values[n_train_hours:, :]  # 划分测试集# 将训练集和测试集的数据分为输入和输出
train_X, train_y = train[:, :-1], train[:, -1]  # 训练集的输入和输出
test_X, test_y = test[:, :-1], test[:, -1]  # 测试集的输入和输出# 重塑输入数据,使其适应 LSTM 模型的输入形状 [样本数, 时间步数, 特征数]
train_X = train_X.reshape((train_X.shape[0], 1, train_X.shape[1]))  # 重塑训练集的输入数据
test_X = test_X.reshape((test_X.shape[0], 1, test_X.shape[1]))  # 重塑测试集的输入数据print(train_X.shape, train_y.shape, test_X.shape, test_y.shape)  # 打印训练集和测试集的形状

在这里插入图片描述

训练 LSTM 模型

代码总结
这段代码的主要目的是构建并训练一个 LSTM 模型,使用训练数据集进行 300 个周期的训练,并在测试数据集上进行验证。

python">from keras.models import Sequential  # 从 keras.models 模块中导入 Sequential 类
from keras.layers import LSTM, Dense  # 从 keras.layers 模块中导入 LSTM 和 Dense 层multi_model = Sequential()  # 创建一个顺序模型
multi_model.add(LSTM(100, input_shape=(train_X.shape[1], train_X.shape[2])))  # 添加一个 LSTM 层,设置 100 个神经元,输入形状为 [时间步数, 特征数]
multi_model.add(Dense(1))  # 添加一个全连接层,输出维度为 1
multi_model.compile(loss='mae', optimizer='adam')  # 编译模型,使用均绝对误差(MAE)作为损失函数,Adam 优化器# 训练模型
multi_history = multi_model.fit(train_X, train_y, epochs=300, batch_size=100, validation_data=(test_X, test_y), verbose=0, shuffle=False)  # 训练模型 300 个周期,每批 100 个样本,使用测试数据集进行验证
绘制训练和验证损失曲线

代码总结
这段代码的主要目的是绘制训练和验证过程中的损失曲线,以便观察模型的训练效果。

python">import matplotlib.pyplot as pyplot  # 导入 matplotlib.pyplot 模块,用于绘制图表pyplot.plot(multi_history.history['loss'], label='multi_train')  # 绘制训练损失曲线,并添加标签 "multi_train"
pyplot.plot(multi_history.history['val_loss'], label='multi_test')  # 绘制验证损失曲线,并添加标签 "multi_test"
pyplot.legend()  # 添加图例
pyplot.show()  # 显示图表

在这里插入图片描述

使用测试数据进行预测并绘制折线图

代码总结
这段代码的主要目的是使用训练好的 LSTM 模型对测试数据进行预测,并绘制预测值与真实值的折线图。

python">yhat = multi_model.predict(test_X)  # 使用训练好的模型对测试数据进行预测
pyplot.plot(yhat, label='predict')  # 绘制预测值折线图,并添加标签 "predict"
pyplot.plot(test_y, label='true')  # 绘制真实值折线图,并添加标签 "true"
pyplot.legend()  # 添加图例
pyplot.show()  # 显示图表
将预测值和真实值反归一化为原始值

代码总结
这段代码的主要目的是将预测值和真实值从归一化范围反归一化为原始值,并计算 RMSE。

python">test_X = test_X.reshape((test_X.shape[0], test_X.shape[2]))  # 重塑测试集的输入数据,使其恢复为二维数组# 反归一化预测值
inv_yhat = np.concatenate((yhat, test_X[:, 1:]), axis=1)  # 将预测值与测试集的其他特征值拼接
inv_yhat = scaler.inverse_transform(inv_yhat)  # 反归一化拼接后的数据
inv_yhat = inv_yhat[:, 0]  # 提取反归一化后的预测值# 反归一化真实值
test_y = test_y.reshape((len(test_y), 1))  # 将真实值重塑为二维数组
inv_y = np.concatenate((test_y, test_X[:, 1:]), axis=1)  # 将真实值与测试集的其他特征值拼接
inv_y = scaler.inverse_transform(inv_y)  # 反归一化拼接后的数据
inv_y = inv_y[:, 0]  # 提取反归一化后的真实值rmse = sqrt(mean_squared_error(inv_y, inv_yhat))  # 计算预测值和真实值之间的均方根误差(RMSE)
print('Test RMSE: %.3f' % rmse)  # 打印测试 RMSE

在这里插入图片描述

绘制包含真实价格、单特征预测价格和多特征预测价格的折线图

代码总结
这段代码的主要目的是绘制包含真实价格、单特征预测价格和多特征预测价格的折线图,X 轴为日期,Y 轴为美元价格。

python">import plotly.graph_objs as go  # 从 plotly.graph_objs 模块中导入 Scatter 类actual_chart = go.Scatter(x=predictDates, y=inv_y, name='Actual Price')  # 创建一个折线图数据对象,x 轴为日期,y 轴为真实值,图例名称为 "Actual Price"
multi_predict_chart = go.Scatter(x=predictDates, y=inv_yhat, name='Multi Predict Price')  # 创建一个折线图数据对象,x 轴为日期,y 轴为多特征预测值,图例名称为 "Multi Predict Price"
predict_chart = go.Scatter(x=predictDates, y=yhat_reshape, name='Predict Price')  # 创建一个折线图数据对象,x 轴为日期,y 轴为单特征预测值,图例名称为 "Predict Price"py.iplot([predict_chart, multi_predict_chart, actual_chart])  # 在 Jupyter Notebook 中显示折线图

结论

  • LSTM 仅使用加权价格特征的 RMSE 为 159.194
  • LSTM 使用交易量(BTC)、交易量(货币单位)和加权价格特征的 RMSE 为 96.184
  • 多特征的 LSTM 模型显示了更准确的结果,如上图所示
整体代码总结

链接: 【机器学习实战中阶】比特币价格预测器 源代码与数据集

这段代码的目的是读取一个包含比特币价格的数据集,并对其进行基本的信息查看。然后,基于数据集中的加权价格绘制折线图,以便直观地查看价格趋势。接下来,代码将加权价格中的 0 值替换为 NaN,并使用前向填充方法(ffill)来填充这些 NaN 值,以避免数据中的 0 值对模型训练产生影响。最后,再次绘制折线图,显示填充后的数据,确保数据处理的效果。

  1. 读取数据集

    • 使用 pd.read_csv 函数读取 CSV 文件,并将 “Date” 列设置为索引。
    • 使用 data.info() 查看数据集的基本信息。
    • 使用 data.head()data.tail() 分别显示数据集的前 5 行和最后 5 行。
  2. 绘制初始折线图

    • 使用 Plotly 的 go.Scatter 创建一个折线图数据对象,x 轴为日期,y 轴为加权价格。
    • 使用 py.iplot 在 Jupyter Notebook 中显示折线图。
  3. 数据处理

    • 使用 replace 方法将加权价格中的 0 值替换为 NaN。
    • 使用 fillna 方法的 ffill 参数(前向填充)来填充 NaN 值。
  4. 绘制处理后的折线图

    • 再次使用 go.Scatter 创建一个折线图数据对象,x 轴为日期,y 轴为处理后的加权价格。
    • 使用 py.iplot 在 Jupyter Notebook 中显示处理后的折线图。

在这里插入图片描述

在这里插入图片描述
比特币价格预测(轻量级CSV)关于数据集
致谢
这些数据来自CoinMarketCap,并且可以免费使用该数据。
https://coinmarketcap.com/


http://www.ppmy.cn/embedded/156310.html

相关文章

在 WiFi 连接的情况下,查找某一个 IP 地址所在位置

通过专业数据库查询 使用在线 IP 查询网站:有许多在线网站如ip66.net等,专门提供 IP 地址定位服务15。只要输入要查询的 IP 地址,网站就会利用其背后的地理 IP 数据库,返回该 IP 地址对应的大致地理位置,如城市、州 /…

Linux 切换到 Root 用户的方式及差异详解

在 Linux 系统中,切换到 root 用户进行管理和操作是常见需求。不同的切换方法会影响环境变量、工作目录以及加载的配置文件。本文将介绍几种常用的切换方式及它们的特点。 切换到 Root 用户的主要方式 1. sudo su 这是通过 sudo 提权后调用 su 切换到 root 用户的…

C# OpenCV机器视觉:常用滤波算法

在一个电闪雷鸣的夜晚,阿强的实验室里却灯火通明,宛如黑暗中的科技孤岛。窗外狂风呼啸,大雨倾盆,仿佛是世界末日的序曲;而屋内,阿强正对着电脑屏幕愁眉苦脸,屏幕上是一张张 “惨不忍睹” 的图像…

考研408笔记之数据结构(四)——树与二叉树

数据结构(四)——树与二叉树 1. 树的基本概念 1.1 树的定义 树的定义:树是n(n>0)个结点的有限集。当n0时,称为空树。 在任意一棵非空树中应满足: 有且仅有一个特定的称为根的结点。当n&…

07_游戏加载窗口

隐藏动态提示窗口 创建空节点 命名为 LoadingWnd 意为加载窗口 并设置全屏 在子级下创建Image作为加载背景 也设置成全屏 将以下资源放进Art文件夹中 设置好精灵模式后拖拽至 Image的Source Image框选 创建文本作为提示内容 增加描边组件OutLine可以美化字体 创建Image作为加载…

「全网最细 + 实战源码案例」设计模式——工厂方法模式

核心思想 简单工厂模式是一种创建者模式,它通过一个工厂类负责创建不同类型的对象,根据传入的参数决定实例化的具体类,也被称为“静态工厂方法”模式,因为工厂方法通常是静态的。 结构 1. 工厂类: 提供一个静态方法…

Gin 框架入门实战系列教程

一,Gin介绍 Gin是一个 Go (Golang) 编写的轻量级 http web 框架,运行速度非常快,如果你是性能和高效的追求者,我们推荐你使用Gin框架。 Gin最擅长的就是Api接口的高并发,如果项目的规模不大,业务相对简单…

Codeforces Round 1000 (Div. 2)-C题(树上两个节点不同边数最大值)

https://codeforces.com/contest/2063/problem/C 牢记一棵树上两个节点如果相邻,它们有一条边会重叠,两个节点延伸出去的所有不同边是两个节点入度之和-1而不是入度之和,那么如果这棵树上有三个节点它们的入度都相同,那么优先选择非相邻的两个节点才能使所有不同边的数量最大!!…