阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

JSP访问Hadoop 图片存储服务

186次阅读
没有评论

共计 4447 个字符,预计需要花费 12 分钟才能阅读完成。

使用 Hadoop 的 hdfs 来存放图片文件. 以下是整个架构思路:

使用 hadoop 作为分布式文件系统,hadoop 是一个实现了 HDFS 文件系统和 MapReduce 的开源项目,我们这里只是使用了它的 hdfs. 首先从 web 页面上上传的文件直接调用 hadoop 接口将图片文件存入 hadoop 系统中,hadoop 可以设定备份数,这样在 hadoop 系统中某个 datanode 死掉并不会造成图片不可能,系统会从其他 datanode 上拿到数据。

以下我们编写的一个 hadoop 的 java 的访问封装类:

import java.io.File;
import java.io.IOException;
import java.io.InputStream;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.FileUtil;
import org.apache.hadoop.fs.Path;
import org.apache.log4j.Logger;

 

public class HadoopFileUtil {
 static Logger logger = Logger.getLogger(HadoopFileUtil.class);
 /**
  * @param args
  */
 public static void main(String[] args) {
 
  String src=args[0];
  String dst=args[1];
  String tag=args[2];
  HadoopFileUtil util=new HadoopFileUtil();
  if(tag!=null&&tag.equals(“1”)){
    System.out.println(util.createFile(src, dst));
  }
  else{
    util.deleteFile(dst);
  }

 }

 /**
  * 拷贝一个本地文件到 hadoop 里面
  * @param localFile 本地文件和路径名
  * @param hadoopFile hadoop 文件和路径名
  * @return
  */
 public  boolean createFile(String localFile,String hadoopFile){
  try {
  Configuration conf=new Configuration();
  FileSystem src=FileSystem.getLocal(conf);
  FileSystem dst= FileSystem.get(conf);
  Path srcpath = new Path(localFile);
  Path dstpath = new Path(hadoopFile);
  FileUtil.copy(src, srcpath, dst, dstpath,false,conf);
  } catch (Exception e) {
  e.printStackTrace();
  return false;
  } 

  return true;
 }
 
 
 /** 将一个流作为输入,生成一个 hadoop 里面的文件
  * @param inStream 输入流
  * @param hadoopFile hadoop 路径及文件名字
  * @return
  */
 public boolean createFileByInputStream(InputStream inStream,String hadoopFile){
  try {
  Configuration conf=new Configuration();
  FileSystem dst= FileSystem.get(conf);
  Path dstpath = new Path(hadoopFile);
  FSDataOutputStream oStream=dst.create(dstpath);
  byte[] buffer = new byte[400];
  int length = 0;
  while((length = inStream.read(buffer))>0){
    oStream.write(buffer,0,length);
  }
  oStream.flush();
  oStream.close();
  inStream.close();
  } catch (Exception e) {
  e.printStackTrace();
  return false;
  } 
  return true;
 }
 /**
  * 删除 hadoop 里面的一个文件
  * @param hadoopFile
  * @return
  */
 public  boolean deleteFile(String hadoopFile){
  try {
  Configuration conf=new Configuration();
  FileSystem dst= FileSystem.get(conf);
  FileUtil.fullyDelete(dst,new Path(hadoopFile));
  } catch (Exception e) {
  e.printStackTrace();
  return false;
  }
 
  return true;
 }
 /**
  * 从 hadoop 中读取一个文件流
  * @param hadoopFile
  * @return
  */
 public FSDataInputStream getInputStream(String hadoopFile){
  FSDataInputStream iStream=null;
  try {
  Configuration conf=new Configuration();
  FileSystem dst= FileSystem.get(conf);
  Path p=new Path(hadoopFile);
  iStream=dst.open(p);
  } catch (Exception e) {
  e.printStackTrace();
  logger.error(“getInputStream error:”, e);
  }
  return iStream;
 }

}
通过调用这个类可以将图片存入 hadoop 系统.

当需要访问某个图片时,先访问 jsp 服务器 (如:tomcat) 的一个 servlet,这个 servlet 从 hadoop 里面读出图片,并

返回给浏览器. 以下是我们的 servlet:
import java.io.IOException;
import java.io.OutputStream;
import java.io.PrintWriter;

import javax.servlet.ServletException;
import javax.servlet.http.HttpServletRequest;
import javax.servlet.http.HttpServletResponse;

import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.io.IOUtils;
import org.apache.log4j.Logger;

import com.tixa.dfs.hadoop.util.HadoopFileUtil;

public class HadoopServlet extends javax.servlet.http.HttpServlet implements javax.servlet.Servlet {
 static Logger logger = Logger.getLogger(HadoopServlet.class);
 
 public void doGet(HttpServletRequest req, HttpServletResponse res) throws ServletException, IOException{

  PrintWriter out=res.getWriter();
  res.setContentType(“image/jpeg”);
  java.util.Date date = new java.util.Date(); 
  res.setDateHeader(“Expires”,date.getTime()+1000*60*60*24); 
  String path=req.getPathInfo();
  path=path.substring(1,path.length());
  HadoopFileUtil hUtil=new HadoopFileUtil();
  FSDataInputStream inputStream=hUtil.getInputStream(path);
  OutputStream os = res.getOutputStream();
 
  byte[] buffer = new byte[400];
  int length = 0;
  while((length = inputStream.read(buffer))>0){
    os.write(buffer,0,length);
  }
  os.flush();
  os.close();
  inputStream.close();
 }
   
}

另外,为了避免对 hadoop 的频繁读取,可以再 jsp 服务器前放一个 squid 进行对图片的缓存。

这就是我们图片服务器的架构.

相关阅读

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计4447字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中