关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
qq_38155668
2017-07-21 01:40
采纳率: 0%
浏览 1942
首页
业务逻辑处理,适合在哪里处理
数据库
业务逻辑是放在数据库好还是后端好,或者说什么适合放在数据库什么放在后端
收起
写回答
好问题
0
提建议
关注问题
微信扫一扫
点击复制链接
分享
邀请回答
编辑
收藏
删除
结题
收藏
举报
10
条回答
默认
最新
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
mulangren1988
2017-07-21 01:43
关注
业务逻辑一般放在逻辑层处理,并做好解耦。
本回答被题主选为最佳回答
, 对您是否有帮助呢?
本回答被专家选为最佳回答
, 对您是否有帮助呢?
本回答被题主和专家选为最佳回答
, 对您是否有帮助呢?
解决
无用
评论
打赏
微信扫一扫
点击复制链接
分享
举报
评论
按下Enter换行,Ctrl+Enter发表内容
查看更多回答(9条)
向“C知道”追问
报告相同问题?
提交
关注问题
浅谈
大数据
的数据
处理
.pdf
2021-08-15 09:24
根据广东工业大学邱耀儒和沈明的《浅谈
大数据
的数据
处理
》一文,我们可以了解到,在
大数据
环境下,数据的
处理
和分析面临着新的挑战与机遇。 首先,随着移动互联网、物联网以及云计算技术的快速发展,数据存储费用...
星环
大数据
平台_Slipstream流
处理
过程.pdf
2020-01-15 11:48
同时,TDHClient的使用简化了数据
处理
的复杂性,使得工程师能够更专注于
业务逻辑
的实现。 在本次实验中,StreamSQL作为关键工具,其用法的掌握对于实施流
处理
至关重要。通过明确地定义输入、衍生、结果三个阶段的流...
初探
大数据
流式
处理
2025-01-22 20:05
酒城译痴无心剑的博客
大数据
处理
系统主要分为批式
处理
和流式
处理
两类。批式
处理
将大量数据分成批次进行
处理
,适用于对实时性要求不高的场景,如离线数据分析和大规模数据计算,常见的框架包括MapReduce、Hive和Spark。流式
处理
则是一种...
流式
大数据
实时
处理
系统需攻克的技术难题共2页.pdf.zip
2022-10-28 18:14
6. 精度与一致性:实时
处理
可能涉及复杂的
业务逻辑
,如何在分布式环境中保证计算结果的正确性和一致性是一大挑战。 7. 流
处理
与批
处理
的融合:在某些场景下,需要将流
处理
和批
处理
结合起来,实现近实时分析,这对...
大数据
流式
处理
-Flink书籍(英文原版)
2018-11-11 18:42
Flink的DataStream API允许开发者定义数据流的
处理
逻辑,而Stateful
处理
则使得Flink可以
处理
有状态的数据流,实现复杂的
业务逻辑
。此外,Flink的checkpoint和savepoint机制提供了强大的容错能力,确保在系统故障时...
大数据
研发引擎,用可视化的组件编排后台数据
处理
逻辑项目源代码
2024-03-27 16:24
Data develop engine 数据研发引擎,用可视化的组件编排后台数据
处理
逻辑,配合消息触发、定时任务和restful接口等多种调度机制,从而能够代替传统的大部分后台接口研发。 数据交换平台主要作用是数据同步和数据集成...
浅谈
大数据
业务
处理
流程
2021-01-03 13:15
话梅姐姐呀的博客
离线数据
处理
流程 离线数据
处理
一般经过:数据采集 ,上传后台服务器,这是数据不会直接被
处理
掉,而是形成日志、行为数据等分析好的包,上传到互联网数据中心IDC(也就是机房)。 1、数据采集 数据一般可通过日志、...
启用源代码分析技术
处理
大数据
.pdf
2021-09-11 10:59
源代码分析技术在
处理
大数据
安全管理中的应用 源代码分析技术是一种用于检测和预防软件安全漏洞的方法,它通过对程序源代码进行详尽检查,找出潜在的安全风险。传统的源代码分析工具主要关注明显的漏洞,但随着...
基于Java语言的Flink
大数据
流
处理
引擎设计源码
2024-10-02 17:18
在现代
大数据
处理
领域,Apache ...它覆盖了从基础数据
处理
到复杂
业务逻辑
实现的各个方面,为
大数据
实时
处理
领域贡献了重要的技术资源。无论是对于初学者还是经验丰富的工程师,该项目都是一个极佳的学习和参考案例。
邮电学院Scala
大数据
实时
处理
——基于Lambda架构的Spark源码
2024-03-25 18:25
- 类文件(.class):12个,包含了核心的
业务逻辑
和数据
处理
类。 - 配置文件(.xml):10个,用于配置系统的各种参数和环境设置。 - Scala脚本文件(.scala):5个,实现了具体的Spark数据
处理
逻辑。 - 属性文件(....
没有解决我的问题,
去提问
向专家提问
向AI提问
付费问答(悬赏)服务下线公告
◇ 用户帮助中心
◇ 新手如何提问
◇ 奖惩公告