Spark程序报错“Task not serializable”

用java写的Spark程序在运行时报错“org.apache.spark.SparkException: Task not serializable”,我在一个类里实现数据处理的功能,main函数定义在另一个类内部,在main函数中调用前一个类中的方法。虽然两个类都实现了Serilizable接口,但是还是无济于事。求大虾赐教!

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
Dubbo 当返回值不能序列化 如何处理

我利用Dubbo和HDFS想搭建一个云盘,利用Dubbo构建service,以处理HDFS的文件上传、下载、删除等操作。在实现第一个遍历HDFS文件结构时遇到了问题:HDFS返回的是FileStatus[] 类型的值给DubboServer,但是FileStatus实现了Writeable接口,而不是Serializable接口。因此当DubboClient端想从DubboServer端获取返回值时,就会报错“Not Serializable”。我尝试了重新建立一个类继承FileStatus,并实现Serializable接口,但还是不行。求问该如何处理

在Laravel 5.6中添加GELF记录器后,“您的配置文件不可序列化”错误消息

<div class="post-text" itemprop="text"> <p>After adding GELF logging according to this how to <a href="https://medium.com/@vaidaslungis/setup-graylog-in-laravel-5-6-logging-d2276bcb9cfa" rel="nofollow noreferrer">https://medium.com/@vaidaslungis/setup-graylog-in-laravel-5-6-logging-d2276bcb9cfa</a> the <code>php artisan config:cache</code> command isn't working anymore.</p> <pre><code>The error message is: In ConfigCacheCommand.php line 68: Your configuration files are not serializable. In config.php line 382: Call to undefined method Gelf\Publisher::__set_state() </code></pre> <p>Is it still possible to cache the config? If so, what needs to be changed?</p> </div>

消息 attempt to create saveOrUpdate event with null entity 一直报错这个快逼疯了

实体类 package com.user.bean; import javax.persistence.Column; import javax.persistence.Entity; import javax.persistence.GeneratedValue; import javax.persistence.GenerationType; import javax.persistence.Id; import javax.persistence.Table; @Entity @Table(name="clas") public class Student { @Id @GeneratedValue(strategy=GenerationType.IDENTITY) private int id; @Column(length=600,nullable=false) private String name; @Column(length=600,nullable=false) private String desc; @Column(length=600,nullable=false) private String remark; public int getId() { return id; } public void setId(int id) { this.id = id; } public String getClas() { return name; } public void setClas(String clas) { this.name = clas; } public String getDesc() { return desc; } public void setDesc(String desc) { this.desc = desc; } public String getRemark() { return remark; } public void setRemark(String remark) { this.remark = remark; } } dao里面 package com.user.dao.impl; import javax.annotation.Resource; import org.hibernate.SessionFactory; import org.springframework.orm.hibernate5.support.HibernateDaoSupport; import org.springframework.stereotype.Repository; import com.user.bean.Student; @Repository public class IStudentDao extends HibernateDaoSupport implements com.user.dao.IStudentDao { @Resource(name="sessionFactory") public void setHibernateSessionFactroy(SessionFactory sessionFactory){ this.setSessionFactory(sessionFactory); } //添加分类 public void addStudent(Student student) { // TODO Auto-generated method stub this.getHibernateTemplate().save(student); } } service里面 package com.user.service.impl; import javax.annotation.Resource; import org.springframework.stereotype.Service; import org.springframework.transaction.annotation.Propagation; import org.springframework.transaction.annotation.Transactional; import com.user.dao.IStudentDao; import com.user.bean.Student; @Service public class StudentService implements com.user.service.StudentService { @Resource private IStudentDao studentDao; @Transactional(readOnly=false,propagation=Propagation.REQUIRED) public void addStudent(Student student) { // TODO Auto-generated method stub studentDao.addStudent(student); } } Action里面 package com.user.action; import javax.annotation.Resource; import org.springframework.context.annotation.Scope; import org.springframework.stereotype.Controller; import com.opensymphony.xwork2.ActionSupport; import com.user.bean.Student; import com.user.service.StudentService; @Controller @Scope("prototype") public class StudentAction { @Resource private StudentService studentService; private Student student; //查询分类管理 public String list() { return "list"; } //到添加的页面 public String toAddpage() { return "toAddpage"; } //添加的方法 public String add() { studentService.addStudent(student); return "add"; } } jsp里面 <%-- <form class="am-form am-form-horizontal" action="${ pageContext.request.contextPath }/student_add.action" method="post"> <div class="am-form-group"> <label for="user-name" class="am-u-sm-3 am-form-label"> 分类名称</label> <div class="am-u-sm-9"> <input type="text" id="name" required placeholder="分类名称" name="student.name"> <small>10字以内...</small> </div> </div> <div class="am-form-group"> <label for="user-name" class="am-u-sm-3 am-form-label"> 分类描述</label> <div class="am-u-sm-9"> <input type="text" id="student.name" required placeholder="分类描述" name="student.desc"> <small>10字以内...</small> </div> </div> <div class="am-form-group"> <label for="user-intro" class="am-u-sm-3 am-form-label"> 备注</label> <div class="am-u-sm-9"> <textarea class="" rows="5" id="intro" name="student.remark" placeholder="输入备注"></textarea> <small>250字以内...</small> </div> </div> <div class="am-form-group"> <div class="am-u-sm-9 am-u-sm-push-3"> <input type="submit" class="am-btn am-btn-success" value="添加分类" /> <a href="type.jsp"><input class="am-btn am-btn-success" value="取消添加" /></a> </div> </div> </form> --%>

map算子里面使用sparkContext 报 java.io.NotSerializableException: org.apache.spark.SparkContext错?

val receiverStream: ReceiverInputDStream[ String ] = RabbitMQUtils.createStream[ String ](ssc, params) receiverStream.print() receiverStream.map(value => { //@transient val sc = spark.sparkContext val jsonS = JSON.parseFull(value) val mapjson: Map[ String, String ] = regJson(jsonS) val alarmContent = mapjson.get("alarmContent").toString.replace("Some(", "").replace(")", "") val alarmEventId = mapjson.get("alarmEventId").toString.replace("Some(", "").replace(")", "") val alarmLevel = mapjson.get("alarmLevel").toString.replace("Some(", "").replace(")", "") val alarmType = mapjson.get("alarmType").toString.replace("Some(", "").replace(")", "") val buildingId = mapjson.get("buildingId").toString.replace("Some(", "").replace(")", "") val chargesCode = mapjson.get("chargesCode").toString.replace("Some(", "").replace(")", "") val createDate = mapjson.get("createDate").toString.replace("Some(", "").replace(")", "").toDouble val delFlag = mapjson.get("delFlag").toString.replace("Some(", "").replace(")", "") val deviceId = mapjson.get("deviceId").toString.replace("Some(", "").replace(")", "") val happenTime = mapjson.get("happenTime").toString.replace("Some(", "").replace(")", "").toDouble val isNewRecord = mapjson.get("isNewRecord").toString.replace("Some(", "").replace(")", "").toBoolean val page = mapjson.get("page").toString.replace("Some(", "").replace(")", "") val producerCode = mapjson.get("producerCode").toString.replace("Some(", "").replace(")", "") val sqlMap = mapjson.get("sqlMap").toString.replace("Some(", "").replace(")", "") println(alarmEventId) val strings: Apple = Apple(alarmContent, alarmEventId, alarmLevel, alarmType, buildingId, chargesCode, createDate, delFlag, deviceId, happenTime, isNewRecord, page, producerCode, sqlMap) val apples: Seq[ Apple ] = Seq(strings) //println("走到这里了!") println("logs:" + apples) // val appRdd: RDD[ Apple ] = sc.makeRDD(apples) /* value1.foreachPartition(iter =>{ import spark.implicits._ val frameDF: DataFrame = value1.toDF() frameDF.createTempView("t_1") frameDF.show() })*/ val value1: RDD[ Apple ] = sc.parallelize(apples) import spark.implicits._ val frameDF: DataFrame = value1.toDF() frameDF.createTempView("t_1") frameDF.show() }).print()

scala编写从hdfs文件取数据通过phoenix将数据批量插入到hbase,报错对象没有序列化

求大牛指导指导问题所在 批量插入的方法如下 class PhoenixClient_v2(host:String,port:String) extends Serializable { try{ Class.forName("org.apache.phoenix.jdbc.PhoenixDriver") } catch{ case e :ClassNotFoundException => println(e) } def InsertOfBatch(phoenixSQL:String,Key:Array[String],Column:Array[String],filepath:String=null,dataArr:Array[Map[String,Any]]=null) = { val sparkConf = new SparkConf().setMaster("local").setAppName("hdfs2hbase") val sc = new SparkContext(sparkConf) //从json格式的hdfs文件中读取 if (filepath != null) { val url = "jdbc:phoenix:" + host + ":" + port val conn = DriverManager.getConnection(url) val ps = conn.prepareStatement(phoenixSQL) try { //利用spark从文件系统或者hdfs上读取文件 val Rdd_file = sc.textFile(filepath) var HashKey:String = (hashCode()%100).toString //从rdd中取出相应数据到ps中 Rdd_file.map{y=> Key.foreach(x => if (x == "Optime") HashKey += "|"+new JSONObject(y).getString(x).split(" ")(0) else HashKey += "|"+new JSONObject(y).getString(x)) ps.setString(1,HashKey) Column.foreach(x => ps.setString(Column.indexOf(x) + 2, new JSONObject(y).getString(x))) ps.addBatch() } ps.executeBatch() conn.commit() } catch{ case e: SQLException => println("Insert into phoenix from file failed:" + e.toString) }finally { conn.close() ps.close() } } //读取Map[String,Any]映射的集合 if (dataArr != null){ val url = "jdbc:phoenix:" + host + ":" + port val conn = DriverManager.getConnection(url) val ps = conn.prepareStatement(phoenixSQL) try { val Rdd_Arr = sc.parallelize(dataArr) var HashKey:String = (hashCode()%100).toString Rdd_Arr.map{y=> Key.foreach(x => if (x == "Optime") HashKey += "|"+y.get(x).toString.split(" ")(0) else HashKey += "|"+y.get(x) ) ps.setString(1,HashKey) Column.foreach(x => ps.setString(Column.indexOf(x) + 2, y.get(x).toString)) ps.addBatch() } ps.executeBatch() conn.commit() } catch{ case e: SQLException => println("Insert into phoenix from file failed:" + e.toString) }finally { conn.close() ps.close() } } } } 调用的方式如下 object PhoenixTest{ def main(args: Array[String]): Unit = { val pc = new PhoenixClient_v2("zk1","2181") println("select result :"+pc.Select_Sql("select * from \"OP_record\"").toString) pc.CreateTable("create table if not exists \"OP_record\"(\"pk\" varchar(100) not null primary key, \"cf1\".\"curdonate\" varchar(20),\"cf1\".\"curcharge\" varchar(20),\"cf1\".\"uniqueid\" varchar(20))","OP_record") val KeyArr = Array("serverid","userid","Optime") val ColumnArr = Array("curdonate","curcharge","uniqueid") pc.InsertOfBatch("upsert into \"OP_record\" values(?,?,?,?)",KeyArr,ColumnArr,"hdfs://zk1:9000/chen/hive_OP_record_diamonds_20170702.log.1499028228.106") } } 报错信息如下: Exception in thread "main" org.apache.spark.SparkException: Task not serializable at org.apache.spark.util.ClosureCleaner$.ensureSerializable(ClosureCleaner.scala:304) at org.apache.spark.util.ClosureCleaner$.org$apache$spark$util$ClosureCleaner$$clean(ClosureCleaner.scala:294) at org.apache.spark.util.ClosureCleaner$.clean(ClosureCleaner.scala:122) at org.apache.spark.SparkContext.clean(SparkContext.scala:2032) at org.apache.spark.rdd.RDD$$anonfun$map$1.apply(RDD.scala:318) at org.apache.spark.rdd.RDD$$anonfun$map$1.apply(RDD.scala:317) at org.apache.spark.rdd.RDDOperationScope$.withScope(RDDOperationScope.scala:147) at org.apache.spark.rdd.RDDOperationScope$.withScope(RDDOperationScope.scala:108) at org.apache.spark.rdd.RDD.withScope(RDD.scala:310) at org.apache.spark.rdd.RDD.map(RDD.scala:317) at scala.Hbase.PhoenixClient_v2.InsertOfBatch(PhoenixClient_v2.scala:123) at scala.Hbase.PhoenixTest$.main(PhoenixClient_v2.scala:230) at scala.Hbase.PhoenixTest.main(PhoenixClient_v2.scala) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:674) at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:180) at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:205) at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:120) at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala) Caused by: java.io.NotSerializableException: org.apache.phoenix.jdbc.PhoenixPreparedStatement Serialization stack: - object not serializable (class: org.apache.phoenix.jdbc.PhoenixPreparedStatement, value: upsert into "OP_record" values(?,?,?,?)) - field (class: scala.Hbase.PhoenixClient_v2$$anonfun$InsertOfBatch$1, name: ps$1, type: interface java.sql.PreparedStatement) - object (class scala.Hbase.PhoenixClient_v2$$anonfun$InsertOfBatch$1, <function1>) at org.apache.spark.serializer.SerializationDebugger$.improveException(SerializationDebugger.scala:40) at org.apache.spark.serializer.JavaSerializationStream.writeObject(JavaSerializer.scala:47) at org.apache.spark.serializer.JavaSerializerInstance.serialize(JavaSerializer.scala:84) at org.apache.spark.util.ClosureCleaner$.ensureSerializable(ClosureCleaner.scala:301) ... 21 more 17/07/06 16:35:26 INFO SparkContext: Invoking stop() from shutdown hook 17/07/06 16:35:26 INFO SparkUI: Stopped Spark web UI at http://192.168.12.243:4040 17/07/06 16:35:26 INFO DAGScheduler: Stopping DAGScheduler 17/07/06 16:35:27 INFO MapOutputTrackerMasterEndpoint: MapOutputTrackerMasterEndpoint stopped! 17/07/06 16:35:27 INFO MemoryStore: MemoryStore cleared 17/07/06 16:35:27 INFO BlockManager: BlockManager stopped 17/07/06 16:35:27 INFO BlockManagerMaster: BlockManagerMaster stopped 17/07/06 16:35:27 INFO OutputCommitCoordinator$OutputCommitCoordinatorEndpoint: OutputCommitCoordinator stopped! 17/07/06 16:35:27 INFO SparkContext: Successfully stopped SparkContext 17/07/06 16:35:27 INFO ShutdownHookManager: Shutdown hook called 17/07/06 16:35:27 INFO ShutdownHookManager: Deleting directory /tmp/spark-18cc3337-cdda-498f-a7f3-124f239a6bfe

在httpclient中使用Serializable接口报错

public static void main(String[] args) throws IOException, ClassNotFoundException { String url = "http://localhost:8080/RmiJetty/test"; Scanner sc1 = new Scanner(System.in); String queryString1 = "num1 = 1"; String queryString2 = "num2 = 1"; String inputObj = sc1.next(); Serializable s = getObjFromServer(url, queryString1,queryString2, inputObj); System.out.println(s.toString()); } /** * @param url * @param queryString 类似a=b&c=d 形式的参数 * * @param inputObj 发送到服务器的对象。 * * @return 服务器返回到客户端的对象。 * @throws IOException */ public static Serializable getObjFromServer(String url, String queryString1,String queryString2,Serializable inputObj) throws IOException { HttpClient client = new HttpClient(); PostMethod post = new PostMethod(url); post.setQueryString(queryString1); post.setQueryString(queryString2); post.setRequestHeader("Content-Type", "application/octet-stream"); java.io.ByteArrayOutputStream bOut = new java.io.ByteArrayOutputStream(1024); java.io.ByteArrayInputStream bInput = null; java.io.ObjectOutputStream out = null; Serializable returnObj = null; try { out = new java.io.ObjectOutputStream(bOut); out.writeObject(inputObj); out.flush(); out.close(); out = null; bInput = new java.io.ByteArrayInputStream(bOut.toByteArray()); RequestEntity re = new InputStreamRequestEntity(bInput); post.setRequestEntity(re); client.executeMethod(post); java.io.InputStream in = post.getResponseBodyAsStream(); java.io.ObjectInputStream oInput = new java.io.ObjectInputStream(in); returnObj = (Serializable) oInput.readObject(); oInput.close(); oInput = null; } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (ClassNotFoundException e) { // TODO Auto-generated catch block e.printStackTrace(); } finally { if (out != null) { out.close(); out = null; } if (bInput != null) { bInput.close(); bInput = null; } //释放连接 post.releaseConnection(); } return returnObj; } 下面是servlet: public class servlet1 extends HttpServlet{ protected void doGet(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException { String strnum1 = request.getParameter("num1"); String strnum2 = request.getParameter("num2"); //String strnum3 = request.getParameter("inputObj"); java.io.ObjectInputStream oi = null; java.io.ObjectOutputStream ot = null; String url="rmi://127.0.0.1/Hello"; //hello表示为一个token,类似秘钥 try { NumServer server = (NumServer)Naming.lookup(url); oi = new java.io.ObjectInputStream(request.getInputStream()); Object o = oi.readObject(); oi.close(); oi = null; //int result = Integer.parseInt(strnum1) + Integer.parseInt(o.toString()); int a = Integer.parseInt(strnum1); int b = Integer.parseInt(strnum2); int result = server.num(a,b,o.toString()); ot = new java.io.ObjectOutputStream(response.getOutputStream()); ot.writeObject(result); ot.flush(); ot.close(); ot = null; PrintWriter pw = response.getWriter(); pw.println(result); }catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (ClassNotFoundException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (NotBoundException e) { // TODO Auto-generated catch block e.printStackTrace(); } finally { try { if (oi != null) { oi.close(); oi = null; } if (ot != null) { ot.close(); ot = null; } } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } } } } 这是报的错: java.io.EOFException at java.io.ObjectInputStream$PeekInputStream.readFully(ObjectInputStream.java:2281) at java.io.ObjectInputStream$BlockDataInputStream.readShort(ObjectInputStream.java:2750) at java.io.ObjectInputStream.readStreamHeader(ObjectInputStream.java:780) at java.io.ObjectInputStream.<init>(ObjectInputStream.java:280) at RmiClient.HttpClientTest1.getObjFromServer(HttpClientTest1.java:79) at RmiClient.HttpClientTest1.main(HttpClientTest1.java:31) Exception in thread "main" java.lang.NullPointerException at RmiClient.HttpClientTest1.main(HttpClientTest1.java:33) 求大神帮忙啊

在我的原型文件中将google.protobuf.Struct用于动态json时出错

<div class="post-text" itemprop="text"> <p>I am using the below message in my proto file as an example,</p> <pre><code>message Report { string name = 1; string desc = 2; google.protobuf.Struct criteria = 3; } </code></pre> <p>and generated the go client, server code. When passing the json below</p> <pre><code>{ "name": "My Report", "desc": "My first report", "criteria": {"fields": {"sum": "100"}} } </code></pre> <p>as post request body to an endpoint and unmarshalling using </p> <pre><code>import "github.com/golang/protobuf/jsonpb" var u api.Report if err := jsonpb.Unmarshal(r.Body, &amp;u); err != nil {... </code></pre> <p>I keep getting this error:</p> <pre><code>level=info msg="panic: reflect.Set: value of type map[string]*structpb.Value is not assignable to type map[string]*structpb.Value" </code></pre> <p>I have also tried using gogo/protobuf/jsonpb but no success there too, although I am still importing in my proto file.</p> <pre><code>import "google/protobuf/struct.proto"; </code></pre> <p>Not sure what am I missing here.</p> </div>

Java实现Serializable接口

一个类实现了Serializable接口后,其成员变量是只能定义一次吗?为什么我用Java对象流传输对象的时候,即使每次都new一个新对象输入,输入全都是跟第一次输入的一样????????

如何序列化没有实现 Serializable 的JAVA对象

如题阿,哈哈。MINA

Django model,QuerySet 序列化成json报错

运行django的views.py中的代码报错如下: 'MetaDict' object has no attribute 'concrete_model' 出错的代码行是:hall_list_data = serializers.serialize("json", clientcase.objects.filter(category="hall")) 我的models.py中定义的模型如下: # *-* coding: utf-8 *-* from django.db import models from mongoengine import * from acto_website.settings import DBNAME import json import pymongo connect(DBNAME) # Create your models here. #客户案例模型 class clientcase(Document): category = StringField(max_length = 1000) name = StringField(max_length= 1000) address = StringField(max_length = 1000) introduction = StringField(max_length = 100000) store_time = IntField() pictures = ListField(DictField()) videos = ListField(DictField()) def __str__(self): return self.name 我用的model是基于mongoengine的,没有用它自己的 哪位大侠指点一下,十分感谢

spark ClassNotFoundException

maven项目, 语言用的是scala, AnalysisSimulation模块依赖commons模块, 打包之后运行报ClassNotFoundException: analysis.DangerLevelTop10, 并且解压jar包可以找到analysis.DangerLevelTop10类, 求大神解决,困扰我很多天了 ![图片说明](https://img-ask.csdn.net/upload/201808/02/1533200745_57212.png) ![图片说明](https://img-ask.csdn.net/upload/201808/02/1533200756_565809.png)

mybatis plus removeById(Serializable id)方法, Serializable类的对象如何映射成对象的id值?

mybatis plus中 removeById(Serializable id)的 API如下: ``` /** * <p> * 根据 ID 删除 * </p> * * @param id 主键ID */ boolean removeById(Serializable id); ``` 要传入的是主键ID的值, 但在项目中,调用removeById方法时传入的是对象,这个对象的类实现了Serializable接口,调用方法的代码如下: ``` @RequestMapping(value ="/delete", method=RequestMethod.DELETE) public Result delete( @ApiParam(name="BaseWsdYhbzcs",required=true) @RequestBody BaseWsdYhbzcs baseWsdYhbzcs) { baseWsdYhbzcsService.removeById(baseWsdYhbzcs); return ResultUtils.wrapSuccess(); } ``` 不明白是如何将类的对象转换成id值的?

Hibernate项目报错,初学者困扰了好久了

最近开始学习hibernate框架,确实觉得比JDBC强大许多。目前在做一个网上评教系统,因为表关系联系比较紧密,所以决定用hibernate框架,刚刚开始的时候涉及到的实体类比较少,还是很顺利的,到后来,实体和关系稍微复杂了一点,问题就出来了。困扰了我好久,简直快要折磨死我了,这里出现了错误,后面的完全就没法做。 ![图片说明](https://img-ask.csdn.net/upload/201505/04/1430698916_56844.png) 看报错,其实也能大致知道是Teacher.java或Teacher.hbm.xml出了问题,可是我检查了不下10遍了,实在是看不出来哪里的问题,贴出我的代码 Teacher.java package cn.pj.zyf.domain; import java.io.Serializable; import java.util.Set; public class Teacher implements Serializable{ private String tid; private String tname; private String pic; private String description; private Set<Course> list_courses; public String getTid() { return tid; } public void setTid(String tid) { this.tid = tid; } public String getTname() { return tname; } public void setTname(String tname) { this.tname = tname; } public String getPic() { return pic; } public void setPic(String pic) { this.pic = pic; } public String getDescription() { return description; } public void setDescription(String description) { this.description = description; } public Set<Course> getList_courses() { return list_courses; } public void setList_courses(Set<Course> list_courses) { this.list_courses = list_courses; } } Teacher.hbm.xml <?xml version="1.0"?> <!DOCTYPE hibernate-mapping PUBLIC "-//Hibernate/Hibernate Mapping DTD 3.0//EN" "http://hibernate.sourceforge.net/hibernate-mapping-3.0.dtd"> <hibernate-mapping> <class name="cn.pj.zyf.domain.Teacher" table="teacher"> <id name="tid" column="tid" type="string" > <generator class="assigned"></generator> </id> <property name="tname" column="tname" type="string"></property> <property name="pic" column="pic" type="string"></property> <property name="description" column="description" type="string"></property> <!-- 教师 与 课程 一对多关联 --> <set name="courses" cascade="all" inverse="false"> <!-- key是用来描述外键 --> <key> <column name="tid"></column> </key> <one-to-many class="cn.pj.zyf.domain.Course" /> </set> </class> </hibernate-mapping>

Hibernate使用sql语句操作数据库时出现的异常could not execute query

代码如下: HibernateUtil: public static int createSqlQuery(String sql, Serializable... serializables) { Session session = null; Integer result = null; try { session = getSession(); session.beginTransaction(); Query query = session.createSQLQuery(sql); if (serializables != null) { for (int i = 0; i < serializables.length; i++) { query.setParameter(i, serializables[i]); } } result = (Integer) query.uniqueResult(); session.getTransaction().commit(); } catch (HibernateException e) { if (null != session) { session.getTransaction().rollback(); } e.printStackTrace(); } return result; } Test: public class Test { public static void main(String[] args) { String sql = "insert into t_user values(2,'Nero','123','18628840518','devilmaycryn@qq.com')"; System.out.println(HibernateUtil.createSqlQuery(sql)); } }

java pojo 层实现 Serializable接口有什么意义?

java pojo 层实现 Serializable接口有什么意义?

WebAPI 接收参数时,参数类有[Serializable]特性则接收不到 json,怎么回事

public class testController:ApiController { public object Post([FromBody] testparam param) { return param; } } ---------------------------------------------------------- [Serializable] public class testparam : parabase { public string username { get; set; } public string password { get; set; } } [Serializable] public class parabase { public string urerid { get; set; } } 为什么 classh 加了 [Serializable]就接收不到 fiddler post过来的json呢?

当使用 @MappedSuperclass,@Entity,@ManyToMany 报:Could not determine type for

Caused by: javax.persistence.PersistenceException: [PersistenceUnit: com.rootls] Unable to build EntityManagerFactory at org.hibernate.ejb.Ejb3Configuration.buildEntityManagerFactory(Ejb3Configuration.java:915) at org.hibernate.ejb.Ejb3Configuration.buildEntityManagerFactory(Ejb3Configuration.java:890) at org.hibernate.ejb.HibernatePersistence.createContainerEntityManagerFactory(HibernatePersistence.java:74) at org.springframework.orm.jpa.LocalContainerEntityManagerFactoryBean.createNativeEntityManagerFactory(LocalContainerEntityManagerFactoryBean.java:286) at org.springframework.orm.jpa.AbstractEntityManagerFactoryBean.afterPropertiesSet(AbstractEntityManagerFactoryBean.java:310) at org.springframework.beans.factory.support.AbstractAutowireCapableBeanFactory.invokeInitMethods(AbstractAutowireCapableBeanFactory.java:1545) at org.springframework.beans.factory.support.AbstractAutowireCapableBeanFactory.initializeBean(AbstractAutowireCapableBeanFactory.java:1483) ... 50 more Caused by: org.hibernate.MappingException: Could not determine type for: java.util.Set, at table: user, for columns: [org.hibernate.mapping.Column(roles)] at org.hibernate.mapping.SimpleValue.getType(SimpleValue.java:305) at org.hibernate.mapping.SimpleValue.isValid(SimpleValue.java:289) at org.hibernate.mapping.Property.isValid(Property.java:238) at org.hibernate.mapping.PersistentClass.validate(PersistentClass.java:468) at org.hibernate.mapping.RootClass.validate(RootClass.java:270) at org.hibernate.cfg.Configuration.validate(Configuration.java:1294) at org.hibernate.cfg.Configuration.buildSessionFactory(Configuration.java:1736) at org.hibernate.ejb.EntityManagerFactoryImpl.<init>(EntityManagerFactoryImpl.java:94) at org.hibernate.ejb.Ejb3Configuration.buildEntityManagerFactory(Ejb3Configuration.java:905) ... 56 more @MappedSuperclass public abstract class IdEntity /*extends AbstractPersistable<Integer>*/ implements Serializable,Cloneable { @Id @GeneratedValue(strategy = GenerationType.AUTO) protected Integer id; public Integer getId() { return id; } public void setId(Integer id) { this.setId(id); } } @Entity @Table(name = "user") //@AttributeOverride( name="id", column = @Column(name="id") ) public class User extends IdEntity{ @ManyToMany @JoinTable(name = "user_role", joinColumns = @JoinColumn(name = "user_id"), inverseJoinColumns = @JoinColumn(name = "role_id", referencedColumnName = "id")) public Set<Role> getRoles() { return roles; } public void setRoles(Set<Role> roles) { this.roles = roles; } @Entity @Table(name = "role") //@AttributeOverride( name="id", column = @Column(name="id") ) public class Role extends IdEntity { private Set<User> users = new HashSet<User>(); @ManyToMany(mappedBy = "roles") public Set<User> getUsers() { return users; } public void setUsers(Set<User> users) { this.users = users; } **项目地址:https://github.com/luowei/mvn-test sql脚本:** create table user( id int(11) primary key auto_increment, username varchar(100) not null, password varchar(92) not null, email varchar(50) ); create table role( id int(11) primary key auto_increment, role_name varchar(30) not null, role_description varchar(100), create_time timestamp not null ); create table user_role( id int(11) primary key auto_increment, user_id int(11) not null, role_id int(11) not null, constraint uq_user_role unique(user_id, role_id) );

jmeter beanshell 对象序列化报错

1.在jmeter中编写beanshell代码,创建消息对象,再对对象序列化,运行报错: Response message: org.apache.jorphan.util.JMeterException: Error invoking bsh method: eval Sourced file: inline evaluation of: ``import com . . . '' : Typed variable declaration : Method Invocation msg.serialize 2.//序列化 byte[] buff = msg.serialize(); 3.beanshell截图 ![图片说明](https://img-ask.csdn.net/upload/201904/09/1554773746_807232.png)

Hibernate保存serializable对象

这个serializable对象是作为一个Bean的属性出现,希望保存为一个Blob类型的字段.

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

Vue + Spring Boot 项目实战(十九):Web 项目优化解决方案

快来一起探索如何打脸我们的破项目,兄弟姐妹们把害怕打在公屏上!

你连存活到JDK8中著名的Bug都不知道,我怎么敢给你加薪

CopyOnWriteArrayList.java和ArrayList.java,这2个类的构造函数,注释中有一句话 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 public ArrayList(Collection&lt;? ...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

CSDN:因博主近期注重写专栏文章(已超过150篇),订阅博主专栏人数在突增,近期很有可能提高专栏价格(已订阅的不受影响),提前声明,敬请理解!

CSDN:因博主近期注重写专栏文章(已超过150篇),订阅博主专栏人数在突增,近期很有可能提高专栏价格(已订阅的不受影响),提前声明,敬请理解! 目录 博客声明 大数据了解博主粉丝 博主的粉丝群体画像 粉丝群体性别比例、年龄分布 粉丝群体学历分布、职业分布、行业分布 国内、国外粉丝群体地域分布 博主的近期访问每日增量、粉丝每日增量 博客声明 因近期博主写专栏的文章越来越多,也越来越精细,逐步优化文章。因此,最近一段时间,订阅博主专栏的人数增长也非常快,并且专栏价

一个HashMap跟面试官扯了半个小时

一个HashMap能跟面试官扯上半个小时 关注 安琪拉的博客 1.回复面试领取面试资料 2.回复书籍领取技术电子书 3.回复交流领取技术电子书 前言 HashMap应该算是Java后端工程师面试的必问题,因为其中的知识点太多,很适合用来考察面试者的Java基础。 开场 面试官: 你先自我介绍一下吧! 安琪拉: 我是安琪拉,草丛三婊之一,最强中单(钟馗不服)!哦,不对,串场了,我是**,目...

我说我不会算法,阿里把我挂了。

不说了,字节跳动也反手把我挂了。

记录下入职中软一个月(外包华为)

我在年前从上一家公司离职,没想到过年期间疫情爆发,我也被困在家里,在家呆着的日子让人很焦躁,于是我疯狂的投简历,看面试题,希望可以进大公司去看看。 我也有幸面试了我觉得还挺大的公司的(虽然不是bat之类的大厂,但是作为一名二本计算机专业刚毕业的大学生bat那些大厂我连投简历的勇气都没有),最后选择了中软,我知道这是一家外包公司,待遇各方面甚至不如我的上一家公司,但是对我而言这可是外包华为,能...

面试:第十六章:Java中级开发

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

培训班出来的人后来都怎么样了?(二)

接着上回说,培训班学习生涯结束了。后面每天就是无休止的背面试题,不是没有头脑的背,培训公司还是有方法的,现在回想当时背的面试题好像都用上了,也被问到了。回头找找面试题,当时都是打印下来天天看,天天背。 不理解呢也要背,面试造飞机,上班拧螺丝。班里的同学开始四处投简历面试了,很快就有面试成功的,刚开始一个,然后越来越多。不知道是什么原因,尝到胜利果实的童鞋,不满足于自己通过的公司,嫌薪水要少了,选择...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

工作八年,月薪60K,裸辞两个月,投简历投到怀疑人生!

近日,有网友在某职场社交平台吐槽,自己裸辞两个月了,但是找工作却让自己的心态都要崩溃了,全部无果,不是已查看无回音,就是已查看不符合。 “工作八年,两年一跳,裸辞两个月了,之前月薪60K,最近找工作找的心态崩了!所有招聘工具都用了,全部无果,不是已查看无回音,就是已查看不符合。进头条,滴滴之类的大厂很难吗???!!!投简历投的开始怀疑人生了!希望 可以收到大厂offer” 先来看看网...

大牛都会用的IDEA调试技巧!!!

导读 前天面试了一个985高校的实习生,问了他平时用什么开发工具,他想也没想的说IDEA,于是我抛砖引玉的问了一下IDEA的调试用过吧,你说说怎么设置断点...

都前后端分离了,咱就别做页面跳转了!统统 JSON 交互

文章目录1. 无状态登录1.1 什么是有状态1.2 什么是无状态1.3 如何实现无状态1.4 各自优缺点2. 登录交互2.1 前后端分离的数据交互2.2 登录成功2.3 登录失败3. 未认证处理方案4. 注销登录 这是本系列的第四篇,有小伙伴找不到之前文章,松哥给大家列一个索引出来: 挖一个大坑,Spring Security 开搞! 松哥手把手带你入门 Spring Security,别再问密...

97年世界黑客编程大赛冠军作品(大小仅为16KB),惊艳世界的编程巨作

这是世界编程大赛第一名作品(97年Mekka ’97 4K Intro比赛)汇编语言所写。 整个文件只有4095个字节, 大小仅仅为16KB! 不仅实现了3D动画的效果!还有一段震撼人心的背景音乐!!! 内容无法以言语形容,实在太强大! 下面是代码,具体操作看最后! @echo off more +1 %~s0|debug e100 33 f6 bf 0 20 b5 10 f3 a5...

程序员是做全栈工程师好?还是专注一个领域好?

昨天,有位大一的同学私信我,说他要做全栈工程师。 我一听,这不害了孩子么,必须制止啊。 谁知,讲到最后,更确定了他做全栈程序员的梦想。 但凡做全栈工程师的,要么很惨,要么很牛! 但凡很牛的,绝不是一开始就是做全栈的! 全栈工程师听起来好听,但绝没有你想象的那么简单。 今天听我来给你唠,记得帮我点赞哦。 一、全栈工程师的职责 如果你学习编程的目的只是玩玩,那随意,想怎么学怎么学。...

不要再到处使用 === 了

我们知道现在的开发人员都使用 === 来代替 ==,为什么呢?我在网上看到的大多数教程都认为,要预测 JavaScript 强制转换是如何工作这太复杂了,因此建议总是使用===。这些都...

什么是a站、b站、c站、d站、e站、f站、g站、h站、i站、j站、k站、l站、m站、n站?00后的世界我不懂!

A站 AcFun弹幕视频网,简称“A站”,成立于2007年6月,取意于Anime Comic Fun,是中国大陆第一家弹幕视频网站。A站以视频为载体,逐步发展出基于原生内容二次创作的完整生态,拥有高质量互动弹幕,是中国弹幕文化的发源地;拥有大量超粘性的用户群体,产生输出了金坷垃、鬼畜全明星、我的滑板鞋、小苹果等大量网络流行文化,也是中国二次元文化的发源地。 B站 全称“哔哩哔哩(bilibili...

十个摸鱼,哦,不对,是炫酷(可以玩一整天)的网站!!!

文章目录前言正文**1、Kaspersky Cyberthreat real-time map****2、Finding Home****3、Silk – Interactive Generative Art****4、Liquid Particles 3D****5、WINDOWS93****6、Staggering Beauty****7、Ostagram图片生成器网址****8、全历史网址*...

终于,月薪过5万了!

来看几个问题想不想月薪超过5万?想不想进入公司架构组?想不想成为项目组的负责人?想不想成为spring的高手,超越99%的对手?那么本文内容是你必须要掌握的。本文主要详解bean的生命...

用了这个 IDE 插件,5分钟解决前后端联调!

点击上方蓝色“程序猿DD”,选择“设为星标”回复“资源”获取独家整理的学习资料!作者 |李海庆我是一个 Web 开发前端工程师,受到疫情影响,今天是我在家办公的第78天。开发了两周,...

大厂的 404 页面都长啥样?最后一个笑了...

每天浏览各大网站,难免会碰到404页面啊。你注意过404页面么?猿妹搜罗来了下面这些知名网站的404页面,以供大家欣赏,看看哪个网站更有创意: 正在上传…重新上传取消 腾讯 正在上传…重新上传取消 网易 淘宝 百度 新浪微博 正在上传…重新上传取消 新浪 京东 优酷 腾讯视频 搜...

自从喜欢上了B站这12个UP主,我越来越觉得自己是个废柴了!

不怕告诉你,我自从喜欢上了这12个UP主,哔哩哔哩成为了我手机上最耗电的软件,几乎每天都会看,可是吧,看的越多,我就越觉得自己是个废柴,唉,老天不公啊,不信你看看…… 间接性踌躇满志,持续性混吃等死,都是因为你们……但是,自己的学习力在慢慢变强,这是不容忽视的,推荐给你们! 都说B站是个宝,可是有人不会挖啊,没事,今天咱挖好的送你一箩筐,首先啊,我在B站上最喜欢看这个家伙的视频了,为啥 ,咱撇...

代码注释如此沙雕,会玩还是你们程序员!

某站后端代码被“开源”,同时刷遍全网的,还有代码里的那些神注释。 我们这才知道,原来程序员个个都是段子手;这么多年来,我们也走过了他们的无数套路… 首先,产品经理,是永远永远吐槽不完的!网友的评论也非常扎心,说看这些代码就像在阅读程序员的日记,每一页都写满了对产品经理的恨。 然后,也要发出直击灵魂的质问:你是尊贵的付费大会员吗? 这不禁让人想起之前某音乐app的穷逼Vip,果然,穷逼在哪里都是...

Java14 新特性解读

Java14 已于 2020 年 3 月 17 号发布,官方特性解读在这里:https://openjdk.java.net/projects/jdk/14/以下是个人对于特性的中文式...

前端还能这么玩?(女朋友生日,用前端写了一个好玩的送给了她,高兴坏了)

前端还能这么玩?(女朋友生日,用前端写了一个好玩的送给了她,高兴坏了)

爬虫(101)爬点重口味的

小弟最近在学校无聊的很哪,浏览网页突然看到一张图片,都快流鼻血。。。然后小弟冥思苦想,得干一点有趣的事情python 爬虫库安装https://s.taobao.com/api?_ks...

工作两年简历写成这样,谁要你呀!

作者:小傅哥 博客:https://bugstack.cn 沉淀、分享、成长,让自己和他人都能有所收获! 一、前言 最近有伙伴问小傅哥,我的简历怎么投递了都没有反应,心里慌的很呀。 工作两年了目前的公司没有什么大项目,整天的维护别人的代码,有坑也不让重构,都烦死了。荒废我一身技能无处施展,投递的简历也没人看。我是不动物园里的猩猩,狒狒了! 我要加班,我要996,我要疯狂编码,求给我个机会… ...

相关热词 c# 解析cad c#数字格式化万 c#int转byte c#格式化日期 c# wpf 表格 c# 实现ad域验证登录 c#心跳包机制 c#使用fmod.dll c#dll vb 调用 c# outlook
立即提问
相关内容推荐