30条回答 默认 最新
- 阿里嘎多学长 2024-11-23 04:48关注解决 无用评论 打赏 举报
关注 参考免费微信小程序:皆我百晓生作答,经由专家-赤兔整理回复,如问题解决,望采纳;如仍有疑问,可评论回复,或私信深度沟通。
为了帮助您下载并获取3500常用汉字书法体检测数据集,我将为您提供一个详细的步骤指南以及可能遇到的问题解决方法。
步骤 1: 访问网站
首先,访问指定的网址:https://blog.csdn.net/weixin_52307528/article/details/126182915
步骤 2: 分析页面内容
在网页上,您可以找到一些关于如何下载数据集的信息。通常,您会看到一个按钮或链接,点击它就可以开始下载了。确保选择合适的文件格式(例如
.zip
文件)以便于存储。步骤 3: 下载和解压
打开下载好的文件,按照提示进行操作。这可能包括解压缩到指定目录下的某个子文件夹内,然后运行相关的命令行工具或脚本来初始化数据集。
注意事项:
- 确保在执行任何下载或安装过程前,了解所涉及的操作系统的兼容性和要求。
- 如果遇到错误信息或无法正常下载的情况,尝试查看网络连接状态,确保没有阻止程序正常工作的防火墙设置或其他安全软件干扰。
- 在处理大量数据时,确保有足够的存储空间,并且了解数据集的大小和格式是否与预期相符。
解决方案示例代码(仅作为示例,实际过程中可能有所不同)
如果您想通过Python来实现类似的功能,可以参考以下代码片段。这里假设您已经有一个名为
download_data()
的函数用于下载数据集,但这个例子非常基础,只展示了如何调用此函数:def download_data(): # 假设我们有URL指向的数据集位置 url = "https://example.com/data.zip" # 使用requests库从给定的URL下载数据集 response = requests.get(url) if response.status_code == 200: with open("data.zip", "wb") as f: f.write(response.content) else: print(f"Failed to download data from {url}. Status code: {response.status_code}") # 调用函数来下载数据 download_data()
注意
这段代码是一个基本示例,实际应用中可能需要根据具体需求调整参数、异常处理等细节。此外,对于更复杂的操作,建议查阅相关文档或寻求专业帮助。
结论
希望以上信息对您有所帮助。如果您在下载过程中遇到问题,不妨再次检查一下提供的链接和指导步骤。祝您下载成功!如果有其他疑问或需要进一步的帮助,请随时提问。
解决 无用评论 打赏 举报- 葱老师呀 2024-11-23 04:48关注解决 无用评论 打赏 举报
- 就是这样,喵~ 2024-11-23 04:48关注解决 无用评论 打赏 举报
- 颠覆。 2024-11-23 04:48关注解决 无用评论 打赏 举报
- 专家-皆知 2024-11-23 04:48关注
参考免费微信小程序:皆我百晓生 作答,经由专家-皆知整理回复,如问题解决,望采纳;如仍有疑问,请评论回复。
创建一个3500常用汉字的书法体检测数据集通常需要自行收集或利用现有的资源。直接提供一个现成的数据集下载链接可能受限于版权和网络环境,但我可以指导你如何着手准备这样的数据集。
步骤1:寻找书法字库资源
- 在线资源:许多书法爱好者和文化网站提供了书法字体下载,例如中国书法网、古诗文网书法字帖等。但请注意,用于商业或大规模数据分析前,务必确认版权允许。
- 专业数据库:有些学术机构或专业机构可能提供付费或免费的书法字体数据库,如汉字书法字典,使用时同样需遵循许可协议。
步骤2:手动或自动化提取字符
- 手动标注:对于小规模或特定需求,可以手动从图片中裁剪汉字。
- 自动化工具:使用Python的图像处理库如OpenCV和PIL,结合OCR技术(如Tesseract)辅助定位和提取单个汉字。
步骤3:整理数据集
-
数据格式化:将提取的汉字图片保存,并创建对应的标签文件,记录每个图片对应的汉字及其书法风格。
import os from PIL import Image # 假设你已经有一系列图片和对应的标签 images_folder = 'path/to/your/images' labels_file = 'labels.txt' with open(labels_file, 'w') as f: for img_name in os.listdir(images_folder): # 假设文件名是汉字编码,这里简化处理 label = img_name[:-4] # 假设图片名为"字_书法风格.jpg" img_path = os.path.join(images_folder, img_name) # 可以在这里添加图像预处理步骤 f.write(f"{label}\t{img_path}\n")
步骤4:数据集分割
- 训练/验证集划分:使用Python的
sklearn.model_selection.train_test_split
来分割数据集。
注意事项
- 版权问题:确保所有使用的资源合法合规,尤其是书法作品,往往涉及版权保护。
- 数据隐私:如果数据集中包含个人信息,确保处理符合隐私法规。
- 数据质量:高质量的图像和准确的标签对于模型训练至关重要。
由于直接提供数据集下载不切实际,上述步骤旨在指导你如何系统地构建自己的数据集。希望这能帮助到你。
解决 无用评论 打赏 举报 - 小熊佩琪滴 2024-11-23 04:48关注解决 无用评论 打赏 举报
关注 🕒下午好,题主!目前:🟢[在线]
📢参考通义千问、由郭老师整理提供!
📣今日诗号:只愿君心似我心,定不负相思意。您提供的链接似乎是一个博客文章或教程的地址,该内容可能提供了关于如何创建或获取3500常用汉字书法体检测数据集的信息。不过,直接从该链接下载数据集可能需要访问特定网站或遵循特定步骤。
对于获取和处理这类数据集,以下是一些通用步骤和建议:
1. 数据集来源确认
首先,确保您找到的数据集是合法且可使用的。有时,特定的数据集可能受版权保护,或有特定的使用条款。
2. 数据集下载
根据您提供的链接,您可以尝试直接访问该页面查看是否有直接下载数据集的链接。如果没有,您可能需要按照博客中的指导进行操作。
3. 数据处理
一旦下载了数据集,您可能需要对其进行处理以便用于机器学习模型。这通常包括:
- 数据清洗:移除不必要的信息或格式化数据。
- 数据转换:将图像或其他非结构化数据转换为模型可以理解的格式(如Tensor)。
- 数据划分:将数据分为训练集、验证集和测试集。
示例代码片段
这里给出一个简单的Python代码片段,假设数据集已经被下载并存储在一个名为
dataset_path
的目录下,用于读取图像数据并将其转换为模型可用的格式。import os from PIL import Image import numpy as np def load_dataset(dataset_path): images = [] labels = [] # 假设每个汉字对应一个文件夹,文件夹名称即为汉字 for i, folder in enumerate(os.listdir(dataset_path)): if not os.path.isdir(os.path.join(dataset_path, folder)): continue for filename in os.listdir(os.path.join(dataset_path, folder)): img = Image.open(os.path.join(dataset_path, folder, filename)) img = img.resize((64, 64)) # 调整图像大小 img_array = np.array(img) images.append(img_array) labels.append(i) # 使用索引作为标签 return np.array(images), np.array(labels) # 加载数据集 images, labels = load_dataset('path_to_your_dataset')
请注意,上述代码只是一个基本示例,实际应用中可能需要根据具体数据集的结构和需求进行调整。
希望这些信息对您有所帮助!如果还有其他问题或需要更详细的指导,请随时告诉我。
解决 无用评论 打赏 举报- 问答-莫得感情 2024-11-23 04:49关注
️题主您好️,目前由我为您解答👇🏼
🧡参考谷歌智能助手,由吾为汝整理提供🧡CSDN 博客文章中提到的 3500 常用汉字书法体检测数据集,文章作者并没有提供公开的下载链接。博文中展示的只是一些示例图片以及相关的研究思路,而非实际的数据集。
因此,你无法直接从该博客文章中下载数据集。
为了获取类似的数据集,你可以考虑以下几种方案:
-
联系作者: 尝试通过 CSDN 平台联系博主,询问数据集是否可以分享,或者是否有其他获取途径。这是最直接的方法,但作者可能不会公开分享数据集。
-
寻找公开数据集: 在一些公开数据集平台,例如 Kaggle、Google Dataset Search、Paperswithcode 等,搜索类似的汉字书法数据集。你可以使用关键词 "Chinese calligraphy dataset"、"Chinese character dataset"、"handwritten Chinese character dataset" 等进行搜索。
-
自行构建数据集: 如果找不到合适的公开数据集,你可能需要自行构建。这需要收集大量的书法作品图片,并进行标注。 这将是一个耗时且复杂的过程,需要一定的技术基础。 你可以考虑以下步骤:
- 数据收集:从书法网站、书籍、博物馆等渠道收集书法图片。
- 数据清洗:去除不清晰、不规范的图片。
- 数据标注:使用标注工具对每个汉字进行标注,包括位置和类别信息。 LabelImg、LabelMe 等工具可以用于图像标注。
- 数据集划分:将数据集划分为训练集、验证集和测试集。
-
使用现有的合成数据工具: 有一些工具可以生成合成汉字书法数据,例如基于 GAN 的方法。虽然合成数据可能不如真实数据理想,但在某些情况下可以作为替代方案。
代码示例 (自行构建数据集 - 数据标注部分):
以下是一个使用 LabelImg 进行数据标注的简单示例:
# 安装 LabelImg pip install labelimg # 启动 LabelImg labelimg /path/to/your/images /path/to/your/predefined_classes.txt # predefined_classes.txt 文件内容,每一行代表一个汉字类别 一 二 三 ...
总结:
获取 3500 常用汉字书法体检测数据集较为困难,需要尝试多种途径。自行构建数据集是最可靠但也是最耗时的方案。建议先尝试寻找公开数据集,如果找不到再考虑自行构建。
希望这些信息能够帮到你!
解决 无用评论 打赏 举报 -
- caperxi 2024-11-23 04:53关注解决 无用评论 打赏 举报
- Kwan的解忧杂货铺@新空间代码工作室 2024-11-23 05:04关注解决 无用评论 打赏 举报
关注 解决 无用评论 打赏 举报- threenewbee 2024-11-23 06:05关注解决 无用评论 打赏 举报
关注 解决 无用评论 打赏 举报- GISer Liu 2024-11-23 06:50关注解决 无用评论 打赏 举报
关注 解决 无用评论 打赏 举报- 清水白石008 2024-11-23 08:43关注
🕒上午好,题主!目前:🟢[在线] 📢参考GPT-4o mini 模型、由清水白石008整理提供! 📣今日金句:“成功不是终点,失败也不是致命的,继续前进的勇气才是最重要的。” — 温斯顿·丘吉尔
关于下载包含3500常用汉字书法体检测数据集的资源,可以通过以下步骤尝试获取:
1. 检查博文中的资源链接
在您提供的 CSDN 博文中,通常作者会在文末提供数据集下载链接,可能是:
- 百度网盘链接
- Google Drive
- GitHub 项目地址
请仔细查看文章的末尾部分或评论区,许多作者会将资源分享链接放在那里。
2. 数据集开源平台
如果博文中没有明确的下载链接,以下开源平台可能有类似的数据集:
- GitHub
搜索关键词:“Chinese handwriting dataset”、“书法数据集”。 - Kaggle
搜索类似关键词,如“Chinese calligraphy dataset”。
3. 自行生成数据集
如果未找到现成的3500汉字书法体数据集,可以通过以下方式自行生成:
下载字体文件
生成图像数据集
使用 Python 和Pillow
库,批量生成书法汉字图像。from PIL import Image, ImageDraw, ImageFont # 配置字体文件路径和输出目录 font_path = "path/to/your/font.ttf" output_dir = "./output/" font = ImageFont.truetype(font_path, size=64) # 常用汉字列表 common_chars = "..." # 可加载完整3500汉字的列表 for char in common_chars: img = Image.new("RGB", (100, 100), (255, 255, 255)) draw = ImageDraw.Draw(img) draw.text((20, 20), char, font=font, fill=(0, 0, 0)) img.save(f"{output_dir}/{char}.png")
标注数据集
生成的图像可以用工具(如 LabelImg)进行标注,生成检测所需的.xml
或.json
文件。
4. 深度学习中文书法相关公开数据集
以下是一些现成的资源:
CASIA手写汉字数据库
中国科学院自动化研究所(CASIA)提供了多个中文手写体数据集,覆盖普通汉字。CTW书法数据集
中文文本识别领域中的经典书法数据集:- 包含手写和书法体,适用于OCR和书法体检测。
如果您需要具体的下载链接或额外帮助,可以提供更多线索(如项目需求),我会进一步协助您找到合适的资源!
解决 无用评论 打赏 举报 - Jackyin0720 2024-11-23 08:49关注解决 无用评论 打赏 举报
- 杨同学* 2024-11-23 08:59关注解决 无用评论 打赏 举报
- guicai_guojia 2024-11-23 11:49关注解决 无用评论 打赏 举报
- *拯 2024-11-23 12:01关注解决 无用评论 打赏 举报
- 迂 幵 2024-11-23 12:01关注解决 无用评论 打赏 举报
- yy64ll826 2024-11-24 07:31关注解决 无用评论 打赏 举报
- giser@2011 2024-11-24 14:41关注解决 无用评论 打赏 举报
关注 解决 无用评论 打赏 举报- 拾光师 2024-11-25 04:03关注
你好!3500常用汉字书法体检测数据集是一个非常有用的资源,用于汉字识别和书法风格研究。然而,这样的数据集并不总是公开可用的,因为它们可能受到版权保护或需要特定的许可。不过,有一些途径可以获取类似的资源:
1. 公开数据集
CASIA Online and Offline Chinese Handwriting Databases:
- CASIA(中国科学院自动化研究所)提供了一些公开的中文手写数据库,包括在线和离线的手写汉字数据集。
- 网址:http://www.casia.ac.cn/online/Online_and_Offline_Chinese_Handwriting_Databases.html
ICDAR 2013 Chinese Handwriting Recognition Competition:
- ICDAR(国际文档分析与识别会议)提供了一些用于手写汉字识别的比赛数据集。
- 网址:https://rrc.cvc.uab.es/?ch=12
Kaggle:
- Kaggle 上有时会有用户上传的中文手写数据集。
- 网址:https://www.kaggle.com/datasets
2. 商业数据集
阿里云天池:
- 阿里云天池平台有时会提供一些高质量的数据集,包括中文手写数据集。
- 网址:https://tianchi.aliyun.com/dataset/
百度AI开放平台:
- 百度AI开放平台提供了一些数据集和工具,包括中文手写识别相关的内容。
- 网址:https://ai.baidu.com/tech/ocr/handwriting
3. 自制数据集
如果你无法找到合适的公开数据集,可以考虑自制数据集。以下是一些建议:
众包平台:
- 使用众包平台(如 Amazon Mechanical Turk、阿里众包等)收集手写汉字样本。
- 网址:https://www.mturk.com/
- 网址:https://crowd.baidu.com/
学校或社区合作:
- 与学校、书法社团或其他社区合作,收集手写汉字样本。
在线书法网站:
- 一些在线书法网站提供用户上传的书法作品,可以从中获取数据。
- 网站示例:https://www.shufa.com/
4. 学术论文和研究
Google Scholar:
- 通过 Google Scholar 搜索相关的学术论文,有些论文会提供数据集的下载链接。
- 网址:https://scholar.google.com/
ResearchGate:
- ResearchGate 上的学者有时会分享他们的数据集。
- 网址:https://www.researchgate.net/
5. 社区和论坛
GitHub:
- 在 GitHub 上搜索相关的项目和数据集。
- 网址:https://github.com/
Stack Overflow:
- 在 Stack Overflow 上提问,可能会有其他开发者提供帮助。
- 网址:https://stackoverflow.com/
总结
获取3500常用汉字书法体检测数据集的途径有很多,包括公开数据集、商业数据集、自制数据集以及学术论文和研究。希望这些信息对你有所帮助。如果你有更具体的需求或问题,请随时告诉我!
解决 无用评论 打赏 举报 - 幽兰的天空 2024-11-25 08:35关注
CASIA Online and Offline Chinese Handwriting Databases:
CASIA(中国科学院自动化研究所)提供了一些公开的中文手写数据库,包括在线和离线的手写汉字数据集。
网址:http://www.casia.ac.cn/online/Online_and_Offline_Chinese_Handwriting_Databases.html
ICDAR 2013 Chinese Handwriting Recognition Competition:ICDAR(国际文档分析与识别会议)提供了一些用于手写汉字识别的比赛数据集。
网址:https://rrc.cvc.uab.es/?ch=12
Kaggle:Kaggle 上有时会有用户上传的中文手写数据集。
网址:https://www.kaggle.com/datasets
2. 商业数据集
阿里云天池:阿里云天池平台有时会提供一些高质量的数据集,包括中文手写数据集。
网址:https://tianchi.aliyun.com/dataset/
百度AI开放平台:百度AI开放平台提供了一些数据集和工具,包括中文手写识别相关的内容。
网址:https://ai.baidu.com/tech/ocr/handwriting
3. 自制数据集
如果你无法找到合适的公开数据集,可以考虑自制数据集。以下是一些建议:众包平台:
使用众包平台(如 Amazon Mechanical Turk、阿里众包等)收集手写汉字样本。
网址:https://www.mturk.com/
网址:https://crowd.baidu.com/
学校或社区合作:与学校、书法社团或其他社区合作,收集手写汉字样本。
在线书法网站:一些在线书法网站提供用户上传的书法作品,可以从中获取数据。
网站示例:https://www.shufa.com/
4. 学术论文和研究
Google Scholar:通过 Google Scholar 搜索相关的学术论文,有些论文会提供数据集的下载链接。
网址:https://scholar.google.com/
ResearchGate:ResearchGate 上的学者有时会分享他们的数据集。
网址:https://www.researchgate.net/
5. 社区和论坛
GitHub:在 GitHub 上搜索相关的项目和数据集。
网址:https://github.com/
Stack Overflow:在 Stack Overflow 上提问,可能会有其他开发者提供帮助。
网址:https://stackoverflow.com/
总结
获取3500常用汉字书法体检测数据集的途径有很多,包括公开数据集、商业数据集、自制数据集以及学术论文和研究。希望这些信息对你有所帮助。如果你有更具体的需求或问题,请随时告诉我!其他学术资源网站:例如Academia、ResearchGate等学术资源网站上也可能有相关的数据集。
如果您仍然找不到该数据集,可能需要联系发布该数据集的作者或机构,询问获取方式。希望这些建议对您有所帮助!
解决 无用评论 打赏 举报 - 喵手 2024-11-25 13:48关注解决 无用评论 打赏 举报
- 才华横溢caozy 2024-11-25 15:23关注
以下答案是由GPT4-pro回答,本人整理后的结果,如有帮助,还请采纳!
3500常用汉字书法体检测数据集是一个用于书法体识别与分析的常用数据集,包含了大量的手写汉字样本,适用于机器学习、深度学习等领域的书法体识别和分类任务。如果你想下载并使用该数据集,首先可以访问你提供的CSDN链接,下面是详细的下载及使用步骤、解决思路和相关代码的实现。一、下载数据集
链接中提供了下载该数据集的地址,步骤如下:
访问CSDN博客链接:通过点击链接访问该页面,文章中包含了数据集下载地址。
- 进入网页后,查看正文部分,通常会有
下载链接
或直接在文章中附带下载的具体位置。 - 如果文章中没有直接提供下载链接,可能需要通过留言或联系博主获取相关资源。
- 进入网页后,查看正文部分,通常会有
下载数据集:
- 点击下载链接,下载文件通常为压缩包(如
.zip
或.tar.gz
格式)。 - 下载完成后,解压缩文件,得到的文件通常包含不同种类的汉字书法图片及标签。
- 点击下载链接,下载文件通常为压缩包(如
二、数据集结构
该数据集一般包含两个主要部分:
- 图片文件夹:存放了3500个常用汉字的书法体图像,可能包括不同书法风格的样本。
- 标签文件:通常是一个文本文件或Excel文件,其中记录了每个图像的标签,标明图像对应的汉字。
通常,这些图片会根据书法风格、笔画的粗细、字体的结构等特点被分类。你需要根据这些图片和标签进行相应的数据处理和模型训练。
三、数据处理和预处理
对于该数据集的处理,通常有以下步骤:
图像读取与预处理:
- 你需要使用Python的图像处理库,如OpenCV、Pillow等来读取图像,并对图像进行预处理。
- 预处理通常包括:灰度化、二值化、去噪、大小归一化等,以便于后续的模型训练。
import cv2 import numpy as np def preprocess_image(image_path): # 读取图像 image = cv2.imread(image_path) # 转换为灰度图 gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY) # 二值化处理 _, binary_image = cv2.threshold(gray, 128, 255, cv2.THRESH_BINARY) # 图像归一化到统一尺寸 resized_image = cv2.resize(binary_image, (64, 64)) # 假设统一尺寸为64x64 return resized_image # 示例 image_path = 'path_to_image.png' processed_image = preprocess_image(image_path)
标签处理:
- 你需要解析标签文件,通常这些标签会是一个与图像文件名相关的字典,记录了图像对应的汉字。
- 可以使用Pandas库读取Excel或CSV格式的标签文件。
import pandas as pd def load_labels(label_file): # 假设标签文件是CSV格式 df = pd.read_csv(label_file) labels = df['label'].values # 提取所有标签列 return labels # 示例 label_file = 'labels.csv' labels = load_labels(label_file)
数据增强:
- 为了增强模型的泛化能力,可以对图像进行数据增强,如旋转、翻转、缩放、裁剪等操作。
- 常用的库包括
tensorflow
的ImageDataGenerator
、torchvision.transforms
等。
from tensorflow.keras.preprocessing.image import ImageDataGenerator datagen = ImageDataGenerator( rotation_range=20, width_shift_range=0.2, height_shift_range=0.2, shear_range=0.2, zoom_range=0.2, horizontal_flip=True, fill_mode='nearest' ) # 假设输入的图像为64x64 augmented_images = datagen.flow(processed_image)
四、模型训练
有了数据和标签后,接下来就是模型训练部分。这里可以使用深度学习框架,如TensorFlow、Keras、PyTorch等进行训练。由于书法体识别属于图像分类任务,可以考虑使用卷积神经网络(CNN)模型进行训练。
构建卷积神经网络(CNN)模型:
from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Dense def build_model(input_shape=(64, 64, 1), num_classes=3500): model = Sequential([ Conv2D(32, (3, 3), activation='relu', input_shape=input_shape), MaxPooling2D((2, 2)), Conv2D(64, (3, 3), activation='relu'), MaxPooling2D((2, 2)), Flatten(), Dense(128, activation='relu'), Dense(num_classes, activation='softmax') # 输出3500个类的概率 ]) model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) return model # 构建模型 model = build_model() model.summary()
数据准备与训练:
- 将图像和标签分为训练集和验证集,使用
train_test_split
进行切割。 - 使用
model.fit()
方法进行训练。
from sklearn.model_selection import train_test_split # 假设X为图像数据,y为标签 X_train, X_val, y_train, y_val = train_test_split(X, y, test_size=0.2) # 训练模型 model.fit(X_train, y_train, validation_data=(X_val, y_val), epochs=10, batch_size=32)
- 将图像和标签分为训练集和验证集,使用
评估与优化:
- 训练完成后,可以使用测试集对模型进行评估,检查模型的准确性。
- 若准确率不高,可以考虑调整网络结构、增加数据增强、使用不同的优化器等方式进行优化。
五、模型预测与应用
一旦训练完成,模型就可以用于对新的书法体图像进行预测:
def predict(model, image): image = preprocess_image(image) # 图像预处理 image = np.expand_dims(image, axis=0) # 扩展维度,模拟批次 image = np.expand_dims(image, axis=-1) # 扩展维度,表示灰度图 prediction = model.predict(image) predicted_class = np.argmax(prediction) # 获取预测的类别 return predicted_class # 示例预测 predicted_class = predict(model, 'test_image.png') print(f'预测的汉字类别为: {predicted_class}')
六、结论
本教程介绍了如何下载、预处理和使用3500常用汉字书法体检测数据集。通过数据预处理、模型构建、训练、评估和预测等步骤,你可以成功应用该数据集来进行书法体识别任务。可以根据实际情况优化数据处理和模型训练的部分,例如改进图像预处理、调整模型架构等。
这个过程涵盖了机器学习中的基本步骤,但由于数据集较大和任务复杂,实际操作中可能需要更多的调参和技术细节。
解决 无用评论 打赏 举报 - M_try的小尾巴 2024-11-26 03:36关注解决 无用评论 打赏 举报
悬赏问题
- ¥15 MC9S12XS128单片机实验
- ¥15 失败的github程序安装
- ¥15 WSL上下载的joern在windows怎么用?
- ¥15 jetson nano4GB
- ¥15 电脑回复出厂设置,重装过程报错提示,求解决方案Windows 无法分析或处理无人参与应答文件 [C:\WINDOWS\Panther\unattend.xml,如何解决?
- ¥15 进入lighttools中的UDOP编辑器的方法
- ¥15 求Gen6d训练数据集
- ¥20 liunx中winscp中可以登入ftp,但是不能登入sftp,如何解决
- ¥15 lighttools的光学属性自定义的用法流程
- ¥15 uni-app动态修改推荐页内容时报错