阅读更多
CodeBunk是一个实时的、在线的代码协作编辑、编译平台,便于开发者协同开发。

项目页面:http://codebunk.com/

CodeBunk提供了三种账号登录方式——Github、Facebook、Twitter。登录后,看到的就是一个编辑页面。目前CodeBunk支持Python、JavaScript、PHP、Ruby 1.8/1.9、Perl、Lua、C和C++,在左侧窗口输入代码,点击【Run】即可在右侧输出运行结果。


点击【share】按钮,会给你一个URL,将这个URL发给别人,即可邀请他参与代码编写,你可以在窗口中实时看到他的操作。

此外,CodeBunk还提供点对点视频聊天工具,点击下方的【Show Chat】即可弹出视频窗口。

类似的工具还有Codassium,你可以通过《企业如何远程招聘到靠谱的程序员?》这篇文章来了解。
  • 大小: 47.1 KB
2
0
评论 共 0 条 请登录后发表评论

发表评论

您还没有登录,请您登录后再发表评论

相关推荐

  • 学习笔记-基于语言模型的中文分词器

    1、中文分词 中文分词的使用场景:搜索引擎、新闻网站 体验分词:http://ai.baidu.com/tech/nlp/lexical 常见分析方法: 词典的机械切分 模型的序列标注 中文分词的难点: 歧义切分 未登录词识别(新词) 2、语言模型 2.1原理 一个句子是否合理,就看它的概率大小如何,我们可以将一个句子表示为词的联合概率,并用条件概率公式写出来,可以使用频率估计条件概率,复杂的条件概率比较难计算,马尔可夫假设被提出,句子的联合概率可以被改写成N-Gram形式的条件概率,语言

  • 打造通用ASP.NET数据分页控件

    对于几乎所有的数据表现Web应用来说,组织好数据的显示方式、避免给用户带来混乱的感觉就是最主要的目标之一。每个页面显示20条记录当然是可以接受的,但每页显示10000条记录就很容易给用户带来不便了。将数据分成多个页面显示,即对数据进行分页,是解决此类问题的最常见的办法。   一、慨述   ASP.NET本身只提供了一个支持数据分页的控件,即DataGrid分页控件,不过它比较适合Intranet环

  • jieba模块中文分词应用场景案例

    jieba是一个在 Python 中广泛使用的中文分词库。由于其高效、准确和易用,jieba在自然语言处理领域有着广泛的应用。下面我将通过一个简单的案例来展示jieba在中文分词中的应用场景。

  • NLP|中文分词技术及应用

    摘要:中文分词是中文信息处理的重要基础,本文详细阐述了目前主要的几种中文分词算法的技术原理 、中文分词目前的瓶颈和评价准则,以及中文分词的具体应用。中文分词指将一个汉字序列切分成一个个单独的词。现有的中文分词算法有五大类:基于词典的方法,基于统计的方法,基于规则的方法,基于字标注的方法,基于人工智能技术(基于理解)的方法。中文分词目前主要有四个瓶颈,分别是分词歧义、未登录词识别、分词粒度问题、错别...

  • 中文分词_中文分词及其应用

    一、中文分词原理中文分词是指将一个汉字序列切分成一个一个单独的词。分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。现有的分词方法可分为三大类,分别是基于字符串匹配的分词方法、基于理解的分词方法和基于统计的分词方法。(一)基于字符串匹配的分词方法基于字符串匹配的分词方法又称机械分词方法,它是按照一定的策略将需要分析的中文字串与一个“充分大的”机器词典中的词条进行匹配,若在词典中...

  • NLP基础笔记1——中文分词技术

    一、简介 中文分词(Chinese Word Segmentation) 指的是将一个汉字序列切分成一个一个单独的词。分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。 中文分词是其他中文 (信息) 处理的基础,搜索引擎、机器翻译(MT)、语音合成、自动分类、自动摘要、自动校对等等,都需要用到分词。 目前主流分词方法:基于规则,基于统计以及二者混合。 基于规则的分词:主要是人工建...

  • 中文分词常见方法

    作者:竹间智能 Emotibot 链接:https://www.zhihu.com/question/19578687/answer/190569700 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 中文分词是中文文本处理的一个基础步骤,也是中文人机自然语言交互的基础模块。不同于英文的是,中文句子中没有词的界限,因此在进行中文自然语言处理时,通常

  • 中文分词技术及应用

    中文分词技术及应用 中文分词算法有5大类: 1、 基于词典的方法 2、基于统计的方法 3、基于规则的方法 4、基于字标注的方法 5、基于人工智能的技术(基于理解)的方法 中文分词目前有4个瓶颈: 1、 分词歧义 2、未登陆词识别 3、分词粒度问题 4、错别字与谐音字规范化 中文分词有5大评价标准: 1、分词正确率 2、切分速度 3、功能完备性 4、易扩展性与可维护性 中文信息处理包括3个层...

  • 基于字典的中文分词

    主要介绍了常用的中文分词方法,并详细介绍了基于字典的中文分词方法,并使用 Python 构建出来一个基于正向最大匹配方法的分词器,并与 jieba 进行了对比。

  • 中文分词之结巴分词~~~附使用场景+demo(net)

    常用技能(更新ing):http://www.cnblogs.com/dunitian/p/4822808.html#skill 技能总纲(更新ing):http://www.cnblogs.com/dunitian/p/5493793.html 在线演示:http://cppjieba-webdemo.herokuapp.com 完整demo:https://github.com/duni...

  • 列举:中文分词算法你知道几种?

    列举:中文分词算法你知道几种? 摘要:看似普通的一句话,甚至几个词,在机器眼里都要经过好几道“程序”。这个过程主要靠中文分词算法,这个算法分为三大类:机械分词算法、基于n元语法的分词算法、基于隐马尔可夫模型的分词算法,本文将为大家重点介绍 来源:数据猿  作者:江永青  原文链接:http://www.datayuan.cn/article/4671.htm 前言 中文分词

  • 常用中文分词方法

    一、正向最大匹配FMM从左到右将待分词文本中的最多个连续字符与词表匹配,如果匹配上,则切分出一个词。二、逆向最大匹配从右到左将待分词文本中的最多个连续字符与词表匹配,如果匹配上,则切分出一个词。三、双向最大匹配正向最大匹配算法和逆向最大匹配算法.如果两个算法得到相同的分词结果,那就认为是切分成功,否则,就出现了歧义现象或者是未登录词问题。四、N-gram双向最大匹配基于字符串的分词方法中的正向最大...

  • jieba,为中文分词而生的Python库

    jieba,为中文分词而生的库

  • 中文分词技术

    中文分词技术

  • 中文分词(jieba)

    中文分词 中文分词(Chinese Word Segmentation) 指的是将一个汉字序列切分成一个一个单独的词。分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。jieba 是目前Python中文分词组件之一。 特点 支持四种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析; 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义; 搜索引擎模式...

  • 自然语言处理入门(4)——中文分词原理及分词工具介绍

    本文首先介绍下中文分词的基本原理,然后介绍下国内比较流行的中文分词工具,如jieba、SnowNLP、THULAC、NLPIR,上述分词工具都已经在github上开源,后续也会附上github链接,以供参考。 1.中文分词原理介绍 1.1 中文分词概述 中文分词(Chinese Word Segmentation) 指的是将一个汉字序列切分成一个一个单独的词。分词就是将连续的字序列按照一定的

  • 学习笔记-分词的策略融合和场景应用

    1 词性标注 1.1常见的词性集 百度词性集(24个) ICTCLAS汉语词性(39个) ICTPOS3.0词性(94个) 人民日报词性集(103个) jieba词性集(64个) 1.2词性标注做法 机械切分,从词典获得词性 模型切分,从模型中获取;(需要额外的分词词性序列标注模型) 1.3一词多性问题 我 的 喜欢:喜欢为vn 我 喜欢 他 :喜欢为v 对于机械分词如何解决一词多性? 可以训练一个词性的HMM模型 (统计三个参数矩阵:初始状态矩阵、状态转移矩阵..

  • 中文分词在大量数据模糊查询中的应用

    最近在做建筑行业相关的项目,遇到的一个应用场景是解析材料名称。由于输入的数据中材料名称非常不规范,而且数量量又非常大,所以处理起来比较困难。 名称不规范的意思是,比如标准材料叫:“圆钢”,材料中出现的名称有:“钢筋圆钢”,“圆钢HPB300”,“钢筋 圆钢(≤Φ10)”等等,也就是说材料名称前面或者后面很多修饰语(一般情况是前面是材料分类,后面是型号信息)。 一般的思路就是关键字匹配,但是由于

  • 使用Python做中文分词和绘制词云

    使用Python做中文分词和绘制词云 李小璐出轨云词图 作为一门编程语言,Python的编写简单,支持库强大,应用场景多,越来越多的人开始将它作为自己的编程入门语言。 Python一个比较重要的场景是做舆情分析,比如分析社交网络上群众对某一话题的态度,分析股民的情绪作为投资参考等。最近笔者也做了一些舆情分析(八卦)方面的工作,一个完整的分析流程包括: 数据获取:使用爬虫在相关网站上获取

Global site tag (gtag.js) - Google Analytics