`
baobeituping
  • 浏览: 1041299 次
  • 性别: Icon_minigender_1
  • 来自: 长沙
社区版块
存档分类
最新评论

通过存储过程直接访问服务器URL

Go 
阅读更多

 

 


CREATE         procedure usp_alertSmsSentMessage
as

declare @id int
declare @to varchar(20)
declare @msg varchar(8000)
declare @response varchar(8000)
declare @url varchar(8000)

while 1 = 1
begin
 set @id = null
 select top 1
  @id = ss.id,
  @to = ss.personId,
  @msg = '以下手机短信发送到:' + ss.phoneNumber + ', ' + ss.customerName + ' 成功![[br]][[/br]]' + ss.content + '[[br]][[/br]]' + convert(varchar(19), ss.registerDate,

120)
 from smsSend ss
 where handleFlag = 1 and sendResult > 0 and echoFlag > 0
 order by ss.id desc

    if @id is null
    begin
     select top 1
      @id = ss.id,
      @to = ss.personId,
      @msg = '以下手机短信发送到:' + ss.phoneNumber + ', ' + ss.customerName + ' 失败![[br]][[/br]]' + ss.content + '[[br]][[/br]]' + convert(varchar(19), ss.registerDate,

120)
     from smsSend ss
     where (handleFlag = 1 and sendResult < 0)
     order by ss.id desc
    end

 if @id is not null
 begin
  if @to is not null and @to<>'JCNEP0000'
  begin
   
     set @url = 'http://127.0.0.1:8998/SendMessage?to=' + @to + '&msg=' + @msg + '&rand=' + convert(varchar(20), rand())
--主要通过usp_httpRequest来连接服务器,源码在附件中

     exec usp_httpRequest
      @url,
      'GET',
      '',
      @response OUT
     print @response
    
   
   
  end
  update smsSend set handleFlag = 10 where id = @id
  --insert into smsSend2(id,phoneNumber,content,sendDate,updateDate,sendResult,echoFlag,registerDate,personId,customerId,customerName,linkManId,clientIp,handleFlag)
  --select id,phoneNumber,content,sendDate,updateDate,sendResult,echoFlag,registerDate,personId,customerId,customerName,linkManId,clientIp,handleFlag from smsSend where

id = @id
  --delete from smsSend where id = @id
  continue
 end
 
 WAITFOR DELAY '00:00:17'
end

-- exec usp_alertSmsSentMessage


GO

分享到:
评论
1 楼 wqy159 2011-09-08  
  

相关推荐

    Linux服务器配置与管理项目7--WWW服务器配置与管理.pptx

    浏览器作为HTTP客户端通过URL向HTTP服务端即Web服务器发送所有请求。Web服务器接收到请求后,向客户端发送响应信息。 如今的Web服务可以分为两种:静态Web服务和动态Web服务。其中动态Web服务更为流行。动态Web服务...

    Cyberduck-7.3.0.32621.zip Mac和Windows的免费服务器和云存储浏览器

    通过易于使用的界面,连接到服务器,企业文件共享和云存储。您可以找到流行的托管服务提供商的连接配置文件。 FTP经过广泛测试的FTP(文件传输协议)实现,可实现最佳互操作性,并通过安全的SSL / TLS连接支持FTP。 ...

    scrapy抓取数据存储至本地mysql数据库-大众点评爬虫.zip

    爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续...然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。

    SpringBoot实现本地存储文件上传及提供HTTP访问服务的方法

    主要介绍了SpringBoot实现本地存储文件上传及提供HTTP访问服务,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下

    暂存和对话和缓存的资源包

    当用户首次访问网站时,服务器会为该用户创建一个唯一的会话ID,并将该ID存储在cookie中或者通过URL参数传递给客户端。 Cache(缓存)是一种将数据临时存储在快速访问位置以提高系统性能的技术。在计算机系统中,...

    爬虫服务器.zip

    爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续...然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。

    该项目通过scrapy爬虫从巨潮网络的服务器获取中国股市的公告.zip

    爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续...然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。

    IIS6.0 IIS,互联网信息服务

    如果你已在DNS服务器中将所有你需要的域名都已经映射到了此惟一的IP地址,则用设不同“主机头名”的方法,可以让你直接用域名来完成对不同Web站点的访问。 比如你本机只有一个IP地址为192.168.0.1,你已经建立(或...

    amazon-api-gateway-url-shortener:在不使用AWS Lambda或任何其他计算的情况下在AWS上创建无服务器URL缩短器

    无功能的URL缩短器 此应用程序无需使用任何计算即可创建URL缩短器。 所有业务逻辑都是在Amazon API Gateway级别处理的。 基本应用程序将使用Cognito创建API网关实例以进行身份​​验证和授权。 它还将创建一个Amazon...

    phpRFT:phpRFT动态地从url下载文件并将其存储到Web服务器。-开源

    php Remote File Transfer直接从url直接动态下载远程文件。 要求:PHP版本:&gt; = 5.4.31(未在较低版本中测试。)完全PHP访问:某些服务器不允许定义时间限制或大小限制。 安装:要安装phpRFT,只需打开config.php...

    实现数据存储到数据库的爬虫实例.zip

    爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续...然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。

    新型的免登录微博爬虫,自动获取Cookie直接进行抓取和解析微博数据,免去了账号登录的过程,彻底摆脱账号被封的困扰.zip

    爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续...然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。

    JsUrl-java的爬虫.zip

    如果您下载了本程序,但是该程序无法运行,或者您不会部署,那么您可以选择退款或者寻求我们的帮助(如果找我们帮助的...然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。

    存储一些收集到的接口数据,爬虫定时自动更新.zip

    爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续...然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。

    在远程服务器上,用docker部署python爬虫环境.zip

    爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续...然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。

    获得HFS(局域网内文件下载服务器工具)爬虫.zip

    爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续...然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。

    电影网站爬虫, 爬取各个电影网站的电影数据并存储到本地.zip

    爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续...然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。

    一个爬取豆瓣电影Top250并且存储到sqlite3数据库中的爬虫.zip

    爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续...然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。

Global site tag (gtag.js) - Google Analytics