Http方式读HBase中图片内容 10C
    现在已将图片数据存储到了Hbase表中,能够通过http方式访问Hbase表中的图片,

但是返回是以XML和Json返回的。 因为图片是想在web系统中直接展示用的(类似http
的方式直接展示图片)。
有没有有这方面的大佬能解答下,或者知道方法的指点下,多谢大家了。

下面是我现在访问Hbase的返回:
图片说明

1

1个回答

HBase -> java servlet 服务层 (例如 SpringMVC )获取 cell value ->转换为 http支持的图片格式 -> 写入到http response 输出流 ->最好客户在 浏览器可见图片

0
wddz139
wddz139 HBase -> java servlet 服务层 (例如 SpringMVC )获取 cell value ->转换为 http支持的图片格式 -> 写入到http response 输出流 ->最好客户在 浏览器可见图片
大约一年之前 回复
smartliukun
smartliukun <img src=”data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAHgAAAB4CAMAAAAOusbgAAAAeFBMVEUAwAD///+U5ZTc9twOww7G8MYwzDCH4==”>
大约一年之前 回复
smartliukun
smartliukun 回复qq_24570443: 那你写一个 javascript 程序,把获取到的 图片的 byte[] 字节数组转为 base64 。然后放在img标签里。类似<img src="src=”data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAHgAAAB4CAMAAAAOus bgAAAAeFBMVEUAwAD///+U5ZTc9twOww7G8MYwzDCH4==”>这么写。
大约一年之前 回复
qq_24570443
memory_fu 我是想在html页面中直接使用<img src="http://192.168.0.4120550/picture/1"> 标签直接使用。你的这种形式弄不了吧
大约一年之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
Spark读写Hbase的二种方式对比
一.传统方式rnrn这种方式就是常用的TableInputFormat和TableOutputFormat来读写hbase,如下代码所示rnrnrnrn简单解释下,用sc.newAPIHadoopRDD根据conf中配置好的scan来从Hbase的数据列族中读取包含(ImmutableBytesWritable, Result)的RDD,rnrn随后取出rowkey和value的键值对儿利用Sta
HBase插入和读取图片
把图片添加到HBase中需要先转变为二进制数组,读取时再转变回来。nn图片的插入:nnnConfiguration configuration = HBaseConfiguration.create();nconfiguration.set(&quot;hbase.zookeeper.quorum&quot;, &quot;Master,Slave1,Slave2&quot;);nHTable table = new HTable(co...
HBase-HFile的读写操作
写入数据: public class TestWrit {      private static Configuration cfg = new Configuration();      private static final int BLOCK_INDEX_SIZE = 60;      private static final int BLOOM_BLOCK_INDEX_SIZE = 1...
HBase读写流程
读流程n读流程概览n详细叙述n写流程n写流程概览n详细叙述n参考读流程:读流程概览:n 1.首先,客户端需要获知其想要读取的信息的Region的位置,这个时候,Client访问hbase上数据时并不需要Hmaster参与(HMaster仅仅维护着table和Region的元数据信息,负载很低),只需要访问zookeeper,从meta表获取相应region信息(地址和端口等)。【Client请求Z
java的api从hbase中读数据
package hbase.com.cn.hbase;nimport java.io.IOException;nimport java.util.ArrayList;nimport java.util.Iterator;nimport java.util.List;nimport org.apache.hadoop.conf.Configuration;nimport org.apache.had...
java从本地读文件并上传Hbase
有兴趣使用的请点下载链接 n数据文件与源代码下载从本地文件读数据,按行操作String filePath = "/root/input_2";nFile file=new File(filePath);nInputStreamReader in_stream = new InputStreamReader(new FileInputStream(file)); nBufferedReader
快学Big Data -- Hbase导数据的几种方式(十九)
Hbase导数据的几种方式nn测试数据请到Blog中下载:http://blog.csdn.net/xfg0218/article/details/51712157nn nn nn1-1)、hive-hbase-handler导数据nnA)、反编译JAR包nnhttp://www.apache.org/dyn/closer.cgi/hive/选择apache-hive-1.2.1-src.tar....
hbase存取照片
import java.io.IOException;rnrnrnimport org.apache.hadoop.conf.Configuration;rnimport org.apache.hadoop.hbase.HBaseConfiguration;rnimport org.apache.hadoop.hbase.HColumnDescriptor;rnimport org.apache.
Spark 读写 HBase 的两种方式(RDD、DataFrame)
Spark 读写 HBase 的两种方式(RDD、DataFrame)
HBase的几种导入数据的方式
1、传统的主要使用Hbase的shell进行手动的输入,都需要经过Hbase的接口,过程n2、使用MapReduce进行批量的导入,但是还是会经过Hbase的HMaster,HregionerServer一些列的过程,增加系统的资源的消耗。例如:nimport java.text.SimpleDateFormat;nnnpublic class BatchImport {nnn//
Hbase以api方式实现数据的插入和读取
测试环境:Hadoop-2.7.3集群,HBase-1.3.0,Idea2018(Linux版)这里是对已经存在的表t1进行put与get操作。代码:package com.test;nnimport org.apache.hadoop.conf.Configuration;nimport org.apache.hadoop.hbase.HBaseConfiguration;nimport org...
遍历HBase表中的数据(把hbase中存储的图片写到本地)
这段代码十分简单,我写这篇博客的唯一原因就是告诉广大像我一样的新手一句话:还是用maven把.....先把代码撸上:package com.***.**;nnimport java.io.File;nimport java.io.FileOutputStream;nimport java.io.IOException;nimport java.io.PrintWriter;nnimport org...
spark常见操作系列(3)--spark读写hbase(2)
接着上一篇, n问题(2):nnscan有nnscan.setCaching(10000)nnscan.setCacheBlocks(true)nn等设定.setCaching ,个人感觉不够用.hbase 默认是在内存里面放一块数据用来读取,所以读取效率比较高,可是,其余大部分数据还是在硬盘中,这个内存数据块的设定和意义,待清晰研究.nn单节点hbase的写入效率,有人粗估计,在3万-5万,这个...
Kafka:无丢失将kafka的值读取到hbase
目录1、需求2、代码1、需求功能:将kafka数据读取到HBASE中 n步鄹: n       1、提取topicName在zookeeper中的offset n       2、循环读取topicName中的offset且对比zookeeper中的offset n       3、将提取的数据转为DF n       4、存储到Hbase中备注:博文中使用到了Zookeeper的使用,请查考下面博
【Spark】Spark之读取Hbase数据库表并写入文件
nimport org.apache.hadoop.hbase.HBaseConfigurationnimport org.apache.hadoop.hbase.client.{HBaseAdmin, Result}nimport org.apache.hadoop.hbase.io.ImmutableBytesWritablenimport org.apache.hadoop.hbase.ma...
hbase缓存机制
regionserver的缓存包含了memestore和blockcache两种,其中memstore用于写缓存(读缓存也包括),blockcache用于读缓存。regionserver给每一个region都分配一个memstore,数据写入的过程中先写入到memstore,当memstore达到设定的阈值后(由hbase.hregion.memstore.flush.size参数控制),会触发f
Spark Hbase读取操作的一些总结与测试
Spark连接HBase实现查询的操作有好多种步骤,其中常用的是直接调用Hbase本身提供的写入和读出的接口。rnrnrn然而不少人在此基础上进行了各种封装,有的支持spark sql on Hbase,著名如华为开源的astro,但是这个也非常有局限性,其仅支持spark 1.4.0,其中的源码已经远远无法适应1.6.0以上的版本。rnrnrn另一种思路是实现Hbase作为Spark的一种数据源
Hadoop项目实战之从HBase中读取数据
MapReduce实战之从HBase中读取数据rnrn一.环境配置rnrn1.本次实验的主要配置环境如下:rnrnrn物理机:windows 10rn虚拟机:VMware pro 12,用其分别创建了三个虚拟机,其ip地址分别为192.168.211.3rnhadoop2.6.4rnServer version: 5.7.21 MySQL Community Server (GPL)rnrnrnrnrn二.需求分析rnrn1.从H...
HBase最佳实践-读性能优化策略
HBase最佳实践-读性能优化策略,HBase最佳实践-读性能优化策略
编写MapReduce程序,集成HBase对表进行读取和写入数据
参考地址:http://hbase.apache.org/boot.html#mapreducenn导入:import org.apache.hadoop.conf.Configured; n导入:import org.apache.hadoop.util.Tool;。 nnnnn三要素nn创建Mapper Class n创建Reducer Class n创建Drivernnnn创建Mapper...
shell脚本操作hbase的两种命令
网上只能找到命令一:nnnexec hbase_home/bin/hbase shell &amp;lt;&amp;lt;EOF nstatusncreate 'testtable','colfaml'nlist 'testtable'nput 'testtable','myrow-1','colfaml:q1','value-1'nscan 'testtable'ndisable 'testtable'ndro...
Spark读写hbase数据
Spark读取hbase的数据 :import org.apache.spark.sql.SparkSessionnimport org.apache.hadoop.hbase.mapreduce.TableInputFormatnimport org.apache.hadoop.hbase._nimport org.apache.hadoop.hbase.client.Scannimport o...
spark常见操作系列(3)--spark读写hbase(1)
spark读写hbase,先写一下hbase的常用操作方式.nnnnhbase建表:nnnncreate 'hbase_test_table', 'info', {NAME=&amp;gt;'info', SPLITALGO =&amp;gt; 'HexStringSplit', REPLICATION_SCOPE =&amp;gt;0}, SPLITS =&amp;gt; ['S0','S1','S2', 'S3', 'S4'...
HBase系列(二):HBase架构及读写流程
本篇博文从分析HBase架构开始,首先从架构中各个组成部分开始,接着从HBase写入过程角度入手,分析HFile的Compaction合并、Region的Split分割过程及触发机制。nnnn架构分析nnHBase...
zookeeper数据存储及查看hbase信息
n n n zookeeper数据存储及查看hbase信息n1.zookeeper数据存储:n1.1内存数据存储、磁盘数据存储.n 内存数据存储: n 数据模型是一棵树。包括所有节点路径,节点信息,ACL等。n DataTree:所有节点信息n DataNode:数据存储最小单元nn1.2磁盘数据存储:n目录在配置zookeeper的文件中。nls /tmp/zook...
使用Spark批量上传图片到HBase中并同时使用OpenCV提取SIFT特征值
使用Spark批量上传图片到HBase中并同时使用OpenCV提取SIFT特征值最近正在学习利用Spark做图像的分类和检索实验,首先需要上传图像数据(保存在本地文件系统中)到HBase中,提取的图像特征是SIFT,借助OpenCV库提取,刚开始是写一个任务上传图片,然后再写一个任务提取HBase中图像的特征值,考虑到图片的序列化和反序列化会耗费大量的时间,且频繁的磁盘IO对时间消耗也很大,因此,将
从hbase表1中读取数据,最终结果写入到hbase表2 ,如何通过MapReduce实现 ?
需要一: n 将hbase中‘student’表中的info:name和info:age两列数据取出并写入到hbase中‘user’表中的basic:XM和basic:NL class ReadStudentMapper extends TableMapperpackage hbaseapi.hbase;nimport java.io.IOException;import org.apac
读取HDFS文件中的数据写入到HBase的表中
核心:Our_Reducer继承TableReducer.准备工作:将数据文件上传到HDFS :hadoop fs -mkdir -p /student/inputnhadoop fs -put /student.txt /student/input在HBase中创建相关的表(可以通过命令也可以通过代码):create 'users', 'info'MR代码:import java.io.IOE...
使用JAVA API和MapReduce读取HBase里的数据(可用作HBase数据清洗)
使用JAVA API和MapReduce读取HBase里的数据
Flink读写系列之-读HBase并写入HBase
这里读HBase提供两种方式,一种是继承RichSourceFunction,重写父类方法,一种是实现OutputFormat接口,具体代码如下:nn方式一:继承RichSourceFunctionnnnpackage com.my.flink.utils.streaming.hbase;nnimport com.my.flink.utils.config.ConfigKeys;nimport o...
Spark,Hive,HBase相互结合--数据读取和计算的几种方式
rnSpark与Hive可以相互结合,同时Spark也可以使用DataFrame读取HBase里的数据,Hive也同样可以直接读取HBase的数据。只不过在Spark和Hive读取HBase数据的时候,需要做列簇或列映射,对于列不确定的需要列簇映射。 几种数据读取和分析思路rnnHive on HBase做好表映射,然后使用Tez替换MR引擎,使用Hive做数据分析rnn这是最基本的一种方式,对于...
HBase读性能优化策略
使用HBase可能会遇到各种问题,有些是系统本身的设计的问题,有些是使用的问题,常见的问题:FULL GC异常导致宕机,RIT问题,写吞吐量太低以及读延迟较大。rn rn这篇文章就以读延迟优化为核心内容展开,具体分析HBase进行读延迟优化的策略,以及这些策略具体原理。rn rn一般情况下,读请求延迟较大通常存在三种场景,分别为:rn# 集群中某一个业务延迟较大,其他业务正常rn# 整个集群所有业
Hbase官方文档
Hbase官方文档 内容http://www.yankay.com/wp-content/hbase/book.html#d613e75的pdf版
Python3从hbase读取中文乱码
使用pyspark自带的newAPIHadoopRDD读取hbase的数据,由于数据是以byte数组的形式存放在hbase上的,使用上面的方式去读hbase的时候又会将byte数组转化为str,从而导致将里面的单斜杠“\xE6\x9C\x89\xE5\x9C\xB0\xE6\x96\xB9”变为双斜杆n百度,Google了个遍,还是没找到解决的办法,各种群里问了,也没能解决,还是感谢大家的帮助,可...
hbase 创建表、查询数据
pom.xml 配置n org.apache.hbasen hbase-clientn 0.96.2-hadoop2n n n org.slf4jn slf4j-apin n n org.slf4jn slf4j-log4j12n n n log4jn log4jn n n nnnnh
读取HDFS写入HBase
import java.io.BufferedReader;nimport java.io.IOException;nimport java.io.InputStreamReader;nimport java.net.URI;nimport java.net.URISyntaxException;nimport java.util.ArrayList;nimport java.util.HashM...
使用spark读取hbase中的数据,使用newAPIHadoopRDD遇到的问题
代码如下:n| import com.dataexa.data.neo4j.hbase.HbaseConf;nimport org.apache.hadoop.conf.Configuration;nimport org.apache.hadoop.hbase.HBaseConfiguration;nimport org.apache.hadoop.hbase.client.Result;nimp...
mapreduce 实现hbase表的读取和写入
我们可以先看看,官网的MapReduce的示例:http://hbase.apache.org/book.html#mapreduce我们这里对,hbase里已存在的表进行读取,将其中的一部分列然后写到另一张表中原表为hive_emp       插入的表为hive_emp_bak直接上代码,简单代码,首先你要在本机配置好,hbase开发环境,将配置文件放入到本地文件中,package make....
mapreduce读取文件内容输出到hbase
package hadoop;nnimport java.io.IOException;nnimport org.apache.hadoop.conf.Configuration;nimport org.apache.hadoop.fs.Path;nimport org.apache.hadoop.hbase.HBaseConfiguration;nimport org.apache.hadoop
Java读写HBase简单例子
几个概念:nn表 Table。 表由行和列组成。n行 Row。每行都由 Row Key 来标识。n列族 ColumnFamily。表由列族组成。n列限定符 Qualifier。也就是列,每个列族由多个列组成。列可以动态创建n单元格。通过行,列族和列限定符定位一个单元格n时间戳 。每个单元格都有多个版本。nn创建表的时候需要指定表的名字,以及所有的列族。n插入数据到HBase时,需要指定表,...
文章热词 机器学习教程 Objective-C培训 交互设计视频教程 颜色模型 设计制作学习
相关热词 mysql关联查询两次本表 native底部 react extjs glyph 图标 nlp课程的授课内容方式 java的http学习