m0_74420115 2024-04-28 19:37 采纳率: 71.9%
浏览 0
已结题

python设置文件路径

这是代码


import pandas_datareader.data as web
import datetime
start = datetime.datetime(2000,1,1)
end = datetime.datetime(2024,1,1)
df = web.DataReader('GOOGL', 'stooq',start,end)
def Stock_Price_LSTM_Data_Precesing(df,mem_his_days,pre_days):
    df.dropna(inplace=True)
    df.sort_index(inplace=True)
    df['label']= df['Close'].shift(-pre_days)
    from sklearn.preprocessing import StandardScaler
    scaler = StandardScaler()
    sca_X=scaler.fit_transform(df.iloc[:,:-1])
    
    
    mem_his_days = 10
    
    from collections import deque
    deq = deque(maxlen=mem_his_days)
    
    X = []
    for i in sca_X:
        deq.append(list(i))
        if len(deq)==mem_his_days:
            X.append(list(deq))
    X_lately = X[-pre_days:]
    X = X[:-pre_days]
    y = df['label'].values[mem_his_days-1:-pre_days]
    
    
    import numpy as np
    X = np.array(X)
    y = np.array(y)
    return X,y,X_lately
X,y,X_lately = Stock_Price_LSTM_Data_Precesing(df,5,10)
print(len(X))
print(len(y))
print(len(X_lately))
pre_days = 10
mem_days=[5,10,15]
lstm_layers=[1,2,3]
dense_layers=[1,2,3]
units = [16,32]
from tensorflow.keras.callbacks import ModelCheckpoint
for the_mem_days in mem_days:
    for the_lstm_layers in lstm_layers:
        for the_dense_layers in dense_layers:
            for the_units in units:
                filepath = './models/men_{0}lstm{1}dense{2}unit{3}.weights.h5'.format(the_mem_days, the_lstm_layers, the_dense_layers, the_units)
                checkpoint = ModelCheckpoint(
                    filepath=filepath,
                    save_weights_only=True,
                    monitor='val_mape',
                    mode='min',
                    save_best_only=True)
                X,y,X_lately = Stock_Price_LSTM_Data_Precesing(df,the_mem_days,pre_days)
                from sklearn.model_selection import train_test_split
                X_train,X_test,y_train,y_test = train_test_split(X,y,shuffle=False,test_size=0.1)
                import tensorflow as tf
                from tensorflow.keras.models import Sequential
                from tensorflow.keras.layers import LSTM,Dense,Dropout
                model = Sequential()
                model.add(LSTM(the_units,input_shape=X.shape[1:],activation='relu',return_sequences=True))
                model.add(Dropout(0.1))
                for i in range(the_lstm_layers):
                    model.add(LSTM(the_units,activation='relu',return_sequences=True))
                    model.add(Dropout(0.1))
                
                model.add(LSTM(the_units,activation='relu'))
                model.add(Dropout(0.1))
                for i in range(the_dense_layers):
                    model.add(Dense(the_units,activation='relu'))
                    model.add(Dropout(0.1))
                
                model.add(Dense(1))
                model.compile(optimizer='adam',
                             loss='mse',
                             metrics=['mape'])
                model.fit(X_train,y_train,batch_size=32,epochs=50,validation_data=(X_test,y_test),callbacks=[checkpoint])

怎么在设置文件路径的时候把val_mape的值保留两位小数放在文件名字的最前面

  • 写回答

4条回答 默认 最新

  • 阿里嘎多学长 2024-04-28 19:37
    关注

    以下内容由CHATGPT及阿里嘎多学长共同生成、有用望采纳:


    问题概括

    这个问题的目的是要在Python中使用TensorFlow的ModelCheckpoint回调函数时,将验证集上的平均绝对百分比误差(val_mape)保留两位小数,并将其作为文件名的一部分。

    问题出现原因

    这个问题出现的原因是在ModelCheckpointfilepath参数中,需要动态地将模型在验证集上的表现(如val_mape)作为文件名的一部分。在原始代码中,filepath是静态的字符串格式化,没有包含val_mape的值。

    问题解决方案

    为了解决这个问题,我们可以在每个epoch结束后,当val_mape被计算出来之后,动态地更新ModelCheckpointfilepath。但是,由于ModelCheckpointfilepath参数需要在模型编译之前设置,我们不能直接使用val_mape的值。因此,我们需要使用一个自定义的回调函数来实现这一点。

    提供代码

    以下是修改后的代码,其中包含了一个自定义的回调函数ValMapEFormatter,它会在每个epoch结束后更新ModelCheckpointfilepath

    import os
    from tensorflow.keras.callbacks import Callback, ModelCheckpoint
    import numpy as np
    
    class ValMapEFormatter(Callback):
        def __init__(self, original_filepath, decimal_places=2):
            super(ValMapEFormatter, self).__init__()
            self.original_filepath = original_filepath
            self.decimal_places = decimal_places
            self.checkpoint = None
    
        def on_epoch_end(self, epoch, logs=None):
            if logs is not None:
                val_mape = logs.get('val_mape')
                if val_mape is not None:
                    # 格式化val_mape为指定的小数位数
                    val_mape_formatted = "{:.2f}".format(val_mape)
                    # 更新ModelCheckpoint的filepath
                    self.checkpoint.filepath = self.original_filepath.format(val_mape=val_mape_formatted)
    
    # 其他代码保持不变...
    
    # 在设置ModelCheckpoint时使用ValMapEFormatter
    checkpoint_callback = ModelCheckpoint(
        filepath='./models/men_{val_mape}.weights.h5',  # 使用占位符
        save_weights_only=True,
        monitor='val_mape',
        mode='min',
        save_best_only=True
    )
    
    formatter_callback = ValMapEFormatter(
        original_filepath='./models/men_{val_mape}lstm{1}dense{2}unit{3}.weights.h5',  # 原始文件路径模板
        decimal_places=2  # 小数点后保留两位
    )
    
    callbacks_list = [checkpoint_callback, formatter_callback]
    
    # 在model.fit中使用callbacks_list
    model.fit(
        X_train, y_train,
        batch_size=32,
        epochs=50,
        validation_data=(X_test, y_test),
        callbacks=callbacks_list
    )
    

    代码运行方式

    运行此代码需要有Python环境,并且安装了TensorFlow和相关依赖库。代码可以直接在一个Python脚本文件中运行,或者在一个Jupyter笔记本中逐行执行。

    代码预期运行结果

    代码将会在每个epoch结束后,根据验证集上的平均绝对百分比误差(val_mape),动态地更新ModelCheckpoint的文件路径。文件名将会包含格式化后的val_mape值,保留两位小数。

    推荐相关链接

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论 编辑记录
查看更多回答(3条)

报告相同问题?

问题事件

  • 系统已结题 5月14日
  • 已采纳回答 5月6日
  • 创建了问题 4月28日