邱健蓄电池基于EIS的锂离子电池RUL预测
跟着新能源轿车、便携式电子设备和储能体系的快速发展,锂离子电池作为要害的能量存储单元,其功能阑珊与寿数退化问题日益受到关注[1]。电池长期运用以后,若不能准确盯梢剩下寿数(RUL),可能会引发安全隐患或设备故障。因而,电池管理体系(BMS)亟需具备高精度的剩下寿数猜测才能[2]。传统的电池寿数猜测办法首要依靠根据物理模型的退化建模办法,建模难度较高,对参数的敏感性强。电化学阻抗谱(EIS)作为一种无损检测技术,可以反映电池内部电荷转移、锂离子分散等微观动态进程,与电池健康状况存在密切关联,为RUL猜测供给了要害特征[3]。然而,EIS数据具有高维度、非线性的特色,且与剩下寿数的映射联系杂乱,传统的浅层学习模型难以捕获深层的时空依靠联系。
数据驱动办法具有对非线性映射才能强、无需具体机理即可建模等长处,成为电池寿数猜测领域的研讨热点。文献[4]探讨了商用锂离子电池库仑功率与容量衰减的联系,建立了库仑功率演化与容量衰减的电化学联系。文献[5]提出根据增量容量剖析和峰值面积的老化方式辨认结构,完成电池老化方式的快速辨认和定量评价。文献[6]针对传统等效电路模型拟合失效和参数过多的问题,提出根据阻抗谱中频部分的等效电路模型,提高了估量精度并降低了核算负荷。文献[7]在小样本数据集上完成了锂离子电池健康状况猜测。文献[8]将EIS数据作为特征输入信号,因其可反映电池内部动力学特性和界面行为,展现出在寿数猜测中的共同优势。虽然已有研讨测验将机器学习办法引进EIS数据剖析,但对EIS的时序演化特征与非线性映射联系的建模才能仍存在缺乏。
为此,本文作者提出一种根据EIS数据的卷积-双向长短期回忆网络-注意力机制(CNN-BiLSTM-Attention)组合模型,从EIS中主动提取多标准特征,建立锂离子电池退化进程中的深度耦合联系,并经过注意力机制杰出要害时刻步的影响,以提高剩下寿数猜测的准确性与安稳性。经过与差错反向传达(BP)神经网络、卷积神经网络(CNN)和长短期回忆(LSTM)神经网络等模型进行比照,验证所提模型在锂离子电池RUL猜测中的有用性,为优化电池RUL猜测技术供给理论支撑。
1 数据剖析与算法建立
1.1 锂离子电池老化试验数据
锂离子电池的充放电循环测验与EIS测验可用于评价功能与阑珊机制。充放电循环测验可直观反映电池容量坚持率、库仑功率以及循环寿数等中心功能指标;EIS测验则经过频域呼应剖析,供给对电池内部电荷传输、电极/电解液界面反响、Li+分散进程等动态行为的多标准解析,二者结合可为锂离子电池寿数猜测及失效诊断供给数据支撑。
选用Large Power商用锂离子电池单体作为试验目标,该电池为方形铝壳封装,正负极资料别离为镍钴锰NCM622和人工石墨,标称容量35 Ah(0.5 C,25 ℃)。电化学测验运用Bio-Logic SP-200电化学工作站(法国产),频率为10-2~105 Hz,配合EC-Lab v11.10软件进行阻抗剖析,测验环境控制在(25.0±0.5) ℃恒温箱。锂离子电池寿数猜测模型练习选用装备双路Intel Xeon Platinum 8360Y处理器和4块NVIDIA A100 80GB GPU的核算平台。
锂离子电池充放电功能和容量坚持率数据运用充电桩监测数据,参照GB/T 31467.1—2015《电动轿车用锂离子动力蓄电池包和体系 第1部分:试验规范》规定的规范充放电办法来测验[9]。在充电进程中,先以0.50 C倍率恒流充电至4.20 V,转恒压充电至0.05 C截止。在放电进程中,以0.50 C恒流放电至2.50 V。经过屡次循环以后,电池的容量会发生改变,如图1所示。350次循环的充放电曲线如图2所示。
图1 不同循环次数后的电池容量曲线
Fig.1 Capacity curves of battery after different cycles
图2 350次充放电循环的容量数据
Fig.2 Capacity data of 350 charge-discharge cycles
EIS测验中,将待测电池固定在电池测验架上,将电化学工作站的赤色和黑色接线头别离与电池测验架引出的正负极引出线衔接,之后设置开始频率、停止频率和采样点个数,检测储能锂离子电池的EIS。不同循环次数后的锂离子电池的EIS曲线如图3所示,别离将两个锂离子电池充放电循环的监测数据和EIS测验数据处理为练习集和测验集,用于模型练习和功能评价。
图3 不同循环次数后的锂离子电池的EIS
Fig.3 Electrochemical impedance spectroscopy(EIS) curves of Li-ion battery after different cycles
1.2 数据驱动猜测模型建立
为了挖掘锂离子电池EIS与RUL间的深度耦合关联信息,测验了3种数据驱动技术,别离为根底的BP神经网络、CNN-LSTM模型,以及结合注意力机制的卷积-双向长短期回忆网络(CNN-BiLSTM)模型。其间,BP算法经过迭代的前向传达与反向传达对神经网络进行练习。在数据规范化方面,选用z-score规范化办法将输入特征转换为零均值和单位方差,核算公式为:
| yi=xi-x¯s | (1) |
式(1)中:x¯和s别离表明整个数据集的大局均值和规范差。
为坚持时刻序列的连续性,将数据划分为固定长度的重叠窗口,每个窗口作为一个练习样本,以此保存部分上下文和次序信息[10]。经典的前馈网络选用梯度下降法进行练习,权重W和偏置b从数据会集提取。躲藏层激活公式和输出猜测公式为:
| zh=Wh⋅x+bhah=σzh | (2) |
式(2)中:ah表明躲藏层输出向量;Wh为输入层到躲藏层的权重矩阵;x为输入向量;bh为躲藏层偏置向量;σ为Sigmoid函数。
| zo=Wo⋅ah+bo,y^=σzo | (3) |
式(3)中:ao为输出层的猜测值;Wo为躲藏层到输出层的权重矩阵;bo为输出层偏置向量。
躲藏层和输出层的梯度核算如下:
| δh=WoT⋅δo⋅σ'zh | (4) |
| δo=y^-y⋅σ'zo | (5) |
式(4)-(5)中:δo为输出层的差错项;y为实在标签;δh为躲藏层的差错项;WoT为输出层权重的转置。
权重和偏置经过梯度下降法迭代调整,直到满足收敛条件:
| Wo:=Wo-η⋅δo⋅ahT | (6) |
| bo:=bo-η⋅δo | (7) |
| Wh:=Wh-η⋅δh⋅xT | (8) |
| bh:=bh-η⋅δh | (9) |
式(6)-(9)中:W为权重矩阵;b为偏置向量;η为学习率;δoahT为梯度项。
当差错低于预设阈值、参数安稳或到达最大迭代次数时,练习停止。
该办法适用于低维回归或分类使命(如表格数据),但无法捕捉图像和时刻序列数据中固有的空间结构或时刻依靠性。
CNN-LSTM模型融合卷积层与LSTM层,用于时空特征学习[11]。CNN选用可学习核及相关偏置提取空间特征,最大池化层对特征图进行下采样,以提高平移不变性并降低维度:
| lt=tanhkt*xt+bt | (10) |
式(10)中:tanh为双曲正切激活函数;kt为卷积核;bt为卷积偏置lt为输入序列片段;下标t表明当时时刻步。
LSTM层经过门控机制处理时刻依靠性。遗忘门公式为:
| ft=σWfht-1,xt+bf | (11) |
式(11)中:ft为遗忘门输出;下标f表明forget gate;ht-1为上一时刻躲藏状况。
输入门和候选状况公式为:
| it=σWiht-1,xt+bi | (12) |
| c˜t=tanhWc⋅ht-1,xt+bc | (13) |
式(12)-(13)中:it为输入门输出;下标i表明input gate;c̃t为候选细胞状况;下标c表明cell state。
细胞状况更新公式为:
| Ct=ft⊗Ct-1+it⊗C˜t | (14) |
式(14)中:⊗表明哈达玛积;Ct为长期回忆载体的细胞状况。
输出门和躲藏状况公式为:
| ot=σWo⋅ht-1,xt+bo | (15) |
| ht=ot⊗tanhCt | (16) |
式(15)-(16)中:ht为当时时刻步躲藏状况;ot为输出门;下标o表明output gate。
模型选用Adam优化器进行端到端的反向传达练习,最终猜测成果来自拼接的输出。CNN层可捕获层次化的空间特征,LSTM层经过长程依靠处理梯度消失问题。
CNN+BiLSTM+Attention模型在杂乱序列使命中体现更优,可以动态优先处理要害时刻步。在注意力机制中,每个输入元素被投影为查询(query)、键(key)和值(value)等3种不同表明,一般经过学习的线性变换核算[12]:
| Qt=Wq⋅Ht | (17) |
| Kt=Wk⋅Ht | (18) |
| Vt=Wv⋅Ht | (19) |
式(17)-(19)中:Ht为输入序列的躲藏状况矩阵;Qt、Kt和Vt为查询向量、键向量和值向量;Wq、Wk、Wv为别离对应查询向量、键向量和值向量的可练习权重矩阵。
其间,多头注意力机制神经网络结构如图4所示,注意力权重经过测量每个查询与一切键的相似性核算:
| αt,t'=softmaxQtKt'Tha | (20) |
图4 多头注意力机制神经网络结构示意图
Fig.4 Schematic diagram of the neural network framework with multi-head attention mechanism
式(20)中:ha为注意力头维度;softmax为归一化指数函数;α为注意力权重。
这些权重决定了模型对序列中每个部分的关注程度。时刻步t的输出为一切值向量的加权和:
| ct=∑t'-1T'αt,t'⋅Vt | (21) |
式(21)中:T’为序列长度;αt,j为时刻步t对第j个输入的注意力权重。
生成的上下文向量ct作为下游猜测的输入,经过一系列全衔接层转换为最终输出:
| y^t=Wout⋅ReLUWfcct+bfc | (22) |
式(22)中:ReLU为修正线性单元;yt为时刻步t的猜测输出;Wout和Wfc为全衔接层权重矩阵;bfc为偏置项。
该模型结合卷积特征提取器、双向序列编码器和动态聚集机制,在杂乱时空使命中可完成较强功能。经过CNN层提取部分方式,BiLSTM单元整合曩昔和未来的上下文信息,注意力模块主动加权最具信息量的时刻步,此架构不仅能捕获细粒度的时空依靠联系,还具备内置的可解说性和对噪声输入的鲁棒性。
1.3 模型功能评价办法
定量评价模型功能是验证其泛化才能与猜测准确性的重要手法,为定量评价模型功能,选用4种常用差错指标:均方根差错(RMSE,ERMSE)、均匀肯定差错(MAE,EMAE)、均匀肯定百分比差错(MAPE,EMAPE)和决定系数(R²)。
其间,ERMSE着重大差错且对异常值敏感,EMAE供给均匀差错的清晰度量,EMAPE以百分比方式表明差错,R²用于衡量模型猜测成果与实际值的拟合程度,便于在不同数据标准间进行比较,核算公式如下:
| ERMSE=1n∑i=1nyi-y^i2 | (23) |
| EMAE=1n∑i=1nyi-y^i | (24) |
| EMAPE=100%n∑i=1nyi-y^iyi | (25) |
| R2=1-∑i=1nyi-y^iyi-y¯)2 | (26) |
式(23)-(26)中:yi表明实在值;yi^表明猜测值;y¯表明均匀值;n为样本数量。
2 试验成果与剖析
2.1 不同模型的猜测作用
为验证所提出CNN-BiLSTM-Attention模型的有用性,别离比照BP神经网络、CNN-LSTM模型与CNN-BiLSTM-Attention模型等3种模型在锂离子电池RUL猜测使命中的体现。
BP神经网络、CNN-LSTM模型与CNN-BiLSTM-Attention模型在练习集和测验集上的RUL猜测曲线,别离见图5(a)和图5(b)。
从图5可知,从练习集成果看,3种模型均能大致拟合电池容量衰减趋势,但CNN-LSTM模型在高循环次数(300次循环后)呈现显着差错,且部分波动较大;而CNN-BiLSTM-Attention模型的猜测曲线与实在值重合度最高,在容量快速衰减阶段(250~350次)体现更安稳。测验集成果进一步验证了模型的泛化才能:BP神经网络差错最大,对寿数终点(350次循环邻近)的猜测精度缺乏;CNN-LSTM模型虽差错减小,但猜测值全体波动较大;CNN-BiLSTM-Attention模型的猜测曲线更靠近实在值,表明其在生疏的数据上仍能坚持良好功能。从练习集成果来看,3种模型均能较好地拟合电池剩下寿数的改变趋势,但CNN-BiLSTM-Attention模型在拟合程度与呼应速率方面更具优势。测验集上,BP神经网络与CNN-LSTM模型均存在必定程度的猜测偏移与震荡,而CNN-BiLSTM-Attention模型可以更平稳地盯梢实在寿数曲线,体现出更强的泛化才能。
图5 不同模型在锂离子电池RUL数据集上的猜测成果
Fig.5 Prediction results of different models on the data set for Li-ion battery RUL
经过定量指标(RMSE、MAE、MAPE、R²)比照模型功能,成果见图6(a)和图6(b)。
从图6可知,在电池RUL练习集上,CNN-BiLSTM-Attention模型的R²挨近1(0.999),RMSE(0.300 7)、MAE(0.223 7)和MAPE(1.0%)均明显低于CNN-LSTM模型(RMSE为1.001 5,MAE为0.493 1,MAPE为1.8%),拟合作用极佳。而BP神经网络虽然在练习集上展现出较强的猜测作用,可是其在测验集上的体现明显下降,表明其过拟合和泛化才能缺乏的问题。
图6 不同模型在锂离子电池RUL数据集的猜测功能比较
Fig.6 Comparison of prediction performance of different models on the data set for Li-ion battery RUL
在测验集上,CNN-BiLSTM-Attention模型的优势更为杰出,RMSE为2.710 7,MAE为2.523 7,MAPE为11.0%,均优于CNN-LSTM模型(RMSE为3.878 4,MAE为3.296 2,MAPE为13.9%)和BP模型(RMSE为4.057 2,MAE为3.110 2,MAPE为13.8%);R²为0.940,高于其他模型,表明其对不知道数据的解说才能更强。
从差错指标来看,CNN-BiLSTM-Attention模型在RMSE、MAE与MAPE等3项指标上均优于其他两种模型,阐明该模型在处理高维阻抗特征与时序动态数据方面具有更高的准确性和鲁棒性。试验成果验证了引进双向时序建模与注意力机制后,在捕捉电池功能退化规则方面的有用性。
2.2 CNN-BiLSTM-Attention模型功能评价
图7(a)的练习集作用图中,猜测值与实在值的散点散布挨近对角线,R²为0.999,练习集的RMSE为0.300 7,阐明模型在练习阶段已充沛学习数据规则。图7(b)的测验集作用图显示,虽然部分样本(如实在值35邻近)存在必定差错,但全体散布仍较会集,R²为0.940,测验集的RMSE为2.710 7,验证了模型的泛化安稳性。
图7 CNN-BiLSTM-Attention模型练习集与测验集猜测作用比照
Fig.7 Comparison of predicted and true values for training and test sets using the CNN-BiLSTM-Attention model
图8展现了CNN-BiLSTM-Attention模型在测验集上的猜测差错曲线,差错肯定值大都在±3 Ah以内,仅单个样本(如编号200、300)差错略高(约-6~+4 Ah),可能与该循环周期内电池呈现异常衰减(如部分阻抗骤变)有关。图9的差错直方图显示,差错散布近似正态散布,均值挨近0,阐明模型无体系性差错,差错首要源于随机噪声或未捕捉的部分特征。
图8 CNN-BiLSTM-Attention模型测验集猜测差错
Fig.8 Test set prediction error of CNN-BiLSTM-Attention model
图9 CNN-BiLSTM-Attention模型猜测差错直方图
Fig.9 Histogram of prediction error for the CNN-BiLSTM-Attention model
3 结论
储能锂离子电池RUL猜测对电化学储能设备长期运维具有重要意义,本文作者提出了一种根据EIS数据的锂离子电池剩下寿数猜测办法,结合CNN、BiLSTM和注意力机制构建猜测模型。试验成果表明,CNN-BiLSTM-Attention模型在测验集上的RMSE、MAE、MAPE(2.710 7,2.523 7,11.0%)均明显低于BP神经网络和CNN-LSTM模型,在练习集和测验集猜测精度的R²别离到达0.999和0.940,验证了其在拟合精度和泛化才能上的优势。该办法经过充沛挖掘阻抗谱中包含的多标准特征与时序依靠结构,可以有用建模电池功能退化进程中的非线性耦合联系,并提高猜测模型对要害退化阶段的感知才能。
