`
wsql
  • 浏览: 12034286 次
  • 性别: Icon_minigender_1
  • 来自: 深圳
文章分类
社区版块
存档分类
最新评论

流的下游复制更简单

 
阅读更多

add new table with simple step:

SQL> set numwidth 20

SQL> select dbms_flashback.get_system_change_number() from dual;

DBMS_FLASHBACK.GET_SYSTEM_CHANGE_NUMBER()

-----------------------------------------

8331188817820

$> expdp sgreports/sgreports tables=sgreports.test2 directory=expdir logfile=test2.log dumpfile=test2.dmp flashback_scn=8331188817820

                  

On the destination system:

1. As the system user, create the Oracle directory for the export dump file. Make sure the physical directory exists on the filesystem.

     create directory impdir as '/oracle/ora_backup';
  1. Copy the export dump file, test.dmp from the source system to /oracle/ora_backup

  2. scp test2.dmp oracle@nazar.prc.sun.com:/oracle/ora_backup

3. Import the application schema:

$> impdp system/sys directory=impdir dumpfile=test2.dmp logfile=test2.log

connect strmadmin/strmadmin@stream1
BEGIN     DBMS_STREAMS_ADM.ADD_TABLE_RULES(                 
   table_name     => 'sgreports.test2',                      
     streams_type   => 'capture',                           
           streams_name   => 'capture_stream1',             
                queue_name     => 'capture_stream1_queue',  
                     include_dml    => true,                
                       source_database=>'henry.sun.net',    
                         include_ddl    => true,            
                             inclusion_rule => true);       
                               END;                         
/

BEGIN DBMS_STREAMS_ADM.ADD_TABLE_RULES( table_name => 'sgreports.test2', streams_type => 'apply', streams_name => 'apply_stream11', queue_name => 'capture_stream1_queue', include_dml => true, include_ddl => true, source_database => 'henry.sun.net', inclusion_rule => true); END; /

分享到:
评论

相关推荐

    最简单的源Filter的编写步骤

    - `FillBuffer`方法:此方法负责填充`IMediaSample`对象,即将数据从源Filter复制到内存缓冲区,供下游Filter使用。在这个例子中,我们将读取本地磁盘的图片并模拟成视频流。 - `DecideBufferSize`方法:用于决定...

    基于RocketMQ Connect构建数据流转处理平台.pdf

    这个解决方案的核心在于其灵活性和可扩展性,使得数据流处理更加简单和高效。 首先,让我们深入了解RocketMQ Connect的基本组件: 1. **源连接器(Source Connector)**:这是数据流入过程的关键部分,负责从源...

    04、日志收集系统Flume-实时计算4-3:flume配置深入.pptx

    - **单一代理流定义**:一个简单的 Flume 配置由源(Source)、接收器(Sink)和通道(Channel)组成。源负责接收数据,接收器负责输出数据,而通道作为临时存储,保证数据在传输过程中的可靠性。配置文件中,每个...

    [BOOK] Getting Started with Storm

    - **All Grouping**:将所有数据项都复制到下游的所有Bolt实例中。 - **Direct Grouping**:允许上游Bolt直接向下游特定Bolt实例发送数据。 - **Global Grouping**:将所有数据项都发送到下游的同一个Bolt实例中。 -...

    QoS技术介绍即服务质量

    - **流镜像**:复制数据包到另一个端口进行分析或监控。 - **ACL(Access Control List)**:访问控制列表,用于定义哪些数据包允许通过网络。 #### 总结 QoS技术是现代网络管理不可或缺的一部分,通过对网络资源...

    Facebook大量数据处理 Scribe.zip

    2. **实时流处理**:Scribe可用于实时数据流处理,将数据实时推送到下游分析系统,例如Storm或Spark Streaming。 3. **监控与报警**:Scribe可以收集各种监控指标,如系统性能、网络流量等,以便及时发现和处理问题...

    gstreamer中tee如何实现可控录像(预览+截图+录像)

    在GStreamer框架中,`tee`元素是一种分发器,它可以将输入的媒体流复制到多个下游元素,而不会丢失任何数据。这对于同时执行多种处理任务,如预览、截图和录像,非常有用。在本场景中,我们将探讨如何利用GStreamer...

    基于python的mysql复制工具详解

    这个工具对于监控数据变更、触发缓存失效或通知下游系统非常有用。 ### 1. 简介 Python-mysql-replication的主要功能是解析MySQL的binlog,它支持ROW、STATEMENT和MIXED三种binlog格式。ROW格式可以提供精确的行级...

    开源项目-liftbridge-io-liftbridge.zip

    5. **数据流处理管道**:在数据处理管道中,Liftbridge可以作为一个中间层,接收上游产生的数据,然后转发给下游处理系统。 总结来说,Liftbridge是面向现代云原生应用设计的一款高效、轻量级的消息流服务,它的高...

    flume 调研报告及安装部署

    - **可扩展性**:通过简单的配置,FLUME 可以构建出复杂的多级数据流管道,支持大数据量的处理。 - **易用性**:配置文件采用简单文本格式,易于理解和维护。 - **插件丰富**:支持众多插件,可以扩展到不同的数据源...

    食材供应链行业:从产业标准化看餐饮供应链成长之路-0224-长江证券-28页.pdf

    Sysco的发展路径在中国很难简单复制,中国食材供应链的上、下游需要在结合国内实际情况的基础上,探索适合自己的发展方式。这包括通过打造标准化的爆款单品来提升上游的集约化水平,以及利用产业互联网的应用来解决...

    kafkaZookper.zip

    简单消费者需要自己管理消费位点,而高阶消费者则由Kafka内部管理,更易于使用。消费者通过向Zookeeper注册订阅的主题,Zookeeper会跟踪消费者的消费进度,确保在消费者重启或故障转移后,可以从上次的位置继续消费...

    农业供应链金融创新发展研究.docx

    农业供应链金融是指以农业经营主体为核心,通过管理供应链上下游,提供信贷融资服务,实现资金流、物流、信息流的高效连通。这种金融模式能够破解农业经营主体因缺乏抵押品而导致的融资难题,通过风险信息的获取和...

Global site tag (gtag.js) - Google Analytics