`
wang_2011_ying
  • 浏览: 144694 次
  • 性别: Icon_minigender_2
  • 来自: 北京
社区版块
存档分类
最新评论
文章列表
java.io.IOException: Server returned HTTP response code: 403 for URL: http:// 这个是什么异常呢? 当你使用java程序检索其他网站上的内容时,如果其服务器设置了禁止抓取,或者其访问需要权限, 如果此时你去检索网页那么就会有异常该异常出现. 如果是服务器需要访问权限,比如说你要登录才能访问的网页,那么你抓取不了的. 如果是服务器端禁止抓取,那么这个你可以通过设置User-Agent来欺骗服务器 connection.setRequestProperty("User-Agent", &quo ...
最近两周一直在做Android APP在线升级,主要学习的内容: 1、在Ubuntu下安装Apache,并将项目中的两个文件:最新的APK文件和版本信息文件 放在/usr/local/apache2/htdocs/VerControl/目录下。其中/usr/local/apache2是Apache的默认安装路径。 2、读取版本信息文件,如果版本较新,则下载APK文件到手机上。之前一直无法将APK文件写入手机,通过查文件,才发现需要在AndroidManifest.xml文件中添加两行: <!-- 添加删除文件 --> <uses-permission android:name ...
# grub.conf generated by anaconda # # Note that you do not have to rerun grub after making changes to this file # NOTICE:  You have a /boot partition.  This means that #          all kernel and initrd paths are relative to /boot/, eg. #          root (hd0,8) #          kernel /vmlinuz-version r ...
提示:“can not create the RTP session: Can't open local data port: 5550” 之前一直认为该机器的5550端口号已经被占用,后来输入lsof -i命令之后,发现该端口并没有被占用。 后来发现/etc/hosts里面的本机ip设置错误。不是发送端指定的IP,如下图所示: 将hosts里面的ip改为正在使用的网卡1的IP1,即发送端指定的IP,发现就可以打开该IP的5550端口了。启动程序后,查看端口使用情况,如下图所示:
1、创建一个模拟器(API level小于等于10,当时选择了很多模拟器,只有模拟器的android版本较低时,可以测试通,具体原因也不知道为什么),建立模拟器的截图如下: 2、服务器端代码如下: import java.io.BufferedReader; import java.io.BufferedWriter; import java.io.IOException; import java.io.InputStream; import java.io.InputStreamReader; import java.io.OutputStream; import java.io ...
Linux环境下的软件安装,并不是一件容易的事情;如果通过源代码编译后在安装,当然事情就更为复杂一些;现在安装各种软件的教程都非常普遍;但万变不离其中,对基础知识的扎实掌握,安装各种软件的问题就迎刃而解了。Co ...
一般来说,login shell其实只会读取两个配置文件: 1)/etc/profile 这是系统整体的设置,最好不要修改这个文件 2)~/.bash_profile 或 ~/.bash_login 或 ~/.profile 属于用户个人设置,你要改自己的数据,就写入这里。 在login shell的bash环境中,所读取的个人偏好配置文件的顺序依次是: 1. ~/.bash_profile 2. ~/.bash_login 3. ~/.profile bash的login shell设置只会读取上面三个文件的其中一个!

不要使用kill -9

 
kill -9 没有给进程留下善后的机会: 1)关闭socket链接; 2)清理临时文件; 3)将自己快要给销毁的消息通知给子进程; 4)重置自己的终止状态; 通常,应该发送15,等一两秒钟,如果没有效果,发送2,如果还不行,发送1. 总之,在使用kill -9前,你应该先使用kill -15,给目标进程一个清理善后工作的机会。(进程也许无法捕捉或直接忽略SIGKILL信号,但他们可以,通常也是能够捕捉SIGTERM信号的。)如果你不留机会让进程完成清理工作,他们会留下一些不完整的文件或状态,当系统重启时,程序将无法理解这些状态。 kill命令 -l (L的小写):列出目前kill能够使用的 ...
服务器端读入流部分代码: System.out.println(new BufferedReader(new InputStreamReader(socket.getInputStream())).readLine()); 客户端写入流部分代码 BufferedWriter writer = new BufferedWriter(new OutputStreamWriter(socket.getOutputStream()));            writer.write(content); writer.flush(); 程序运行时出现阻塞 原因分析: 服务器端使用了read ...
1. Hadoop2.2.0 下载 下载地址:http://archive.apache.org/dist/hadoop/core/hadoop-2.2.0/ 2. 集群环境搭建 设置CentOS静态IP地址的步骤: $ sudo vim /etc/sysconfig/network-scripts/ifcfg-eth0 在里面添加如下语句: IPADDR=192.168.61.0 NETMASK=255.255.255.0 NETWORK=192.168.0.0 设置好之后,需要让IP地址生效,运行下面命令: $ sudo service network restart $ ifconfig ...
你是否曾经有过要计算一个非常大的数据(几百GB)的需求?或在里面搜索,或其它操作——一些无法并行的操作。数据专家们,我是在对你们说。你可能有一个4核或更多核的CPU,但我们合适的工具,例如 grep, bzip2, wc, awk, sed等等,都是单线程的,只能使用一个CPU内核。 借用卡通人物Cartman的话,“如何我能使用这些内核”? 要想让Linux命令使用所有的CPU内核,我们需要用到GNU Parallel命令,它让我们所有的CPU内核在单机内做神奇的map-reduce操作,当然,这还要借助很少用到的–pipes 参数(也叫做–spreadstdin)。这样,你的负载就会平均 ...

Hadoop常用命令

HDFS命令行接口 hadoop fs命令 跟linux的类似 ls(显示一层) lsr(递归) du(显示所有文件及大小)  dus(文件夹大小)  count(多少个文件、大小) hadoop fs –help mv  帮助 mv(移动) cp(复制) rm(删除) rmr(递归删除) mkdir(新文件夹) put(从本地文件复制到hdfs) get(从hdfs复制到本地) getmerge(合并目录中到多个文件 到 本地系统) copyFromLocal(从本地拷贝到hdfs) movelFromLocal(从本地移动到 ...
50030       mapred.job.tracker.http.address        描述:JobTracker administrative web GUI JOBTRACKER的HTTP服务器和端口 50070              dfs.http.address                             描述:NameNode administrative web GUI NAMENODE ...
重点:authorized_keys的文件属性,最好为644,组内其他人权限最多为读,或者没有读写权限,其他人的权限与前者类似。我配置时出现错误的根源是authorized_keys的文件权限设置的太高。 具体步骤如下: 1、使用root权限在/etc/hosts文件中添加互访问的主机名和对应的ip地址; 2、生成密钥 $ssh-keygen (默认是rsa格式) 3、将公钥id_rsa.pub追加到./ssh/authorized_keys文件中 注意::更改authorized_keys的文件属性为644。此时,完成了自己可以无密码访问自己主机,如果不可以,建议重启ssh服务,命令如 ...
sudo service vsftpd status//查看ftp状态 sudo service vsftpd start //启动ftp sudo service sshd restart//重启ssh service iptables stop  //关闭防火墙
Global site tag (gtag.js) - Google Analytics