- 5
回答
数据交易创业必看!datatrade.top 域名值得入手吗?求技术geigei支招! 打算做数据交易平台/数据服务创业,翻了一堆域名后锁定了 datatrade.top——“data+trade”直
- big data
- database
- talkingdata
- 21
- 2025-12-10 21:57
- 3
回答
将 Scopus 导出的 CSV 文件 转换为 Web of Science (WOS) 格式后进行被引文献分析时,无法抓取被引文献
- 2
本人手握数据无损压缩技术,是当下甚至未来100 年之内的核心技术。广泛用于电子文档断网压缩,云端冷数据压缩。人工智能语言压缩数据训练模型,定对0万亿美元市场,如果申请专利,等于技术泄密,技术传导国外
- 3
回答
xsync同步脚本问题:目录同步显示成功但实际文件未更新 问题描述 xsync脚本用于在集群节点间同步文件,但在同步目录时遇到问题。脚本执行显示成功,但目标节点的目录内容没有实际更新。 环境信息 集群
- 5
回答
怎么办啊 为啥只有一行啊 我真的不会 真的没学会 hadoop上课讲的不是很清楚 当时马上下课就没弄完回宿舍弄的 结果一直配不好
- big data
- 3
- 2025-09-28 13:59
- 6
回答
- 6
回答
import pyspark.sql as spark_sql from pyspark.sql import SparkSession spark = SparkSession.builder \
- 4
回答
在进行创建Word Count类并将程序打包成jar包内容中,选择好打包的文件后没有办法进行下一步运行无法点击next是怎么回事?
- 4
回答
我想请问一下我在尝试做hadoop伪分布式安装的过程中遇到了个问题,我不确定我应该修改哪个配置文件,包括core-site.xml,hadoop-env.sh,hadfs-site.xml,我查看ha
- 4
回答
有没有人知道datagrip的中文班版怎么设置呀查找了好多资料,自己也尝试了很多方法,但都没有成功求解答~
- 4
- 3
回答
怎么办求帮忙 一直连接不上 打开桥接模式就连接不上,IP地址也不显示
- 1
执行图片上的操作后,创建的目录和文件都不见了,在此之前已经运行过start-dfs.sh
- 1
Datahub如何设置kafka->flink job->doris的血缘关系,目前只能设置表与表之间的血缘,未查到相关文档介绍
- 1
pom文件添加依赖出错 这是啥问题,是我添加的顺序不对吗?(1111111111111111)
- 1
回答
DataX hdfswriter中的path为什么不能写成:/user/hive/warehouse/oracle_to_hive.db/dept/2024-10-29运行后报错,提示表不存在或路径不
- 1
回答
- 1
回答
datagrip使用求解答。我使用alt+左键选择多行数据时,只想再行首插入光标,以前也是对的。最近它会自动将我整行给选中,不知道哪里设置出问题了。敲代码时,移动光标,也会突然就给整行给选中了
- big data
- 78
- 2024-09-04 19:56
- 1
回答
基于ADE20k数据集进行街景分割,分割后的数据量与照片数量不对应
- 1
回答
基于ADE20k数据集分割的街景图片,分割后的数据量与照片数量不对应
- 4
回答
有没有朋友知道,曹顺教授的一本书籍资源 Analytics for Finance and Accounting:Data Structures and Applied AI,如何获得这本资源和相应的
- 1
回答
在确定变量相关系数矩阵,应该怎么选择自变量合适。例如,在以下系数矩阵中,第4、5列为因变量,打算做多元回归,应该选择哪些自变量合适
- 3
关于虚拟机vmware,dbeaver,xshell,根据爬取到的数据,用jupyter绘制成折线图,只剩最后一步一直搞不出来。详细的东西可以来咨询,求!
- 4
回答
- 2
回答
导入tif格式的dem数据一片空白,什么也不显示,请问要怎么处理呢?
- big data
- 398
- 2024-06-03 19:24
- 2
回答
在进行表面分析-坡度时报错,输入路径中没有中文和特殊符号,该怎么解决?
- big data
- 227
- 2024-06-03 18:35
- 3
回答
- 5
回答
在linuxssh免密码登录中ssh已经配置但是有些节点可以登录但是另外的节点却不能登录为什么,明明是一样的配置
- 5
回答
运行时总是卡在这里,点开具体就是以下情况。先谢谢大家对我的帮助😊
- big data
- 1
- 2024-04-24 16:11
- 6
回答
每天有任务会自动生成一段sql,如何每天自动运行这条sql每天有任务会自动生成一段sql,如何每天自动运行这条sql