博客
关于我
Coinversation的合成资产:另一种形式的“跨链”
阅读量:176 次
发布时间:2019-02-28

本文共 1233 字,大约阅读时间需要 4 分钟。

在这里插入图片描述

近几个月,DeFi是整个圈内最热门的方向。虽然最近有所降温,但是DeFi必然还会继续发展下去。

毕竟去中心化金融是区块链最适合的应用场景,事实上从比特币诞生之初,其作为去中心化的货币本身就是最重要的DeFi应用。

但是在目前的DeFi中,扮演最重要角色的公链却是以太坊,也就是现行的DeFi似乎和比特币这个加密货币世界的核心渐行渐远了。

主要原因就是因为比特币本身不支持以太坊那样的智能合约,所以必须通过跨链把比特币映射成为以太坊中的ERC20代币才能把比特币引入到以太坊的DeFi生态中。

因此,考虑到比特币在整个加密货币中绝对的王者地位,比特币的跨链对于做大整个DeFi生态至关重要。

关于比特币跨链的研究,早在2014年好几位比特币核心开发者就联名发表过一篇名为“Enabling Blockchain Innovations with Pegged Sidechains”(文章链接:http://kevinriggen.com/files/sidechains.pdf)的文章,提到了Federated peg和SPV proof等跨链方案。

其中Federated peg即多重签名方案,也就是把比特币转入到一个由几方多重签名控制的地址中,然后在相应的链上生成对应的映射。

目前实际操作中将比特币跨链到其他链上都是采用了这个方案,例如WBTC,renBTC,RSK,Liquid等等。但这个方案的缺陷非常明显,即多重签名本质上还是一种托管方案,用户自己不掌握私钥。

如果多重签名的几方一起跑路,用户毫无办法。

所以Federated peg本质上是一种不那么中心化的中心化方案,完全违背了DeFi的本意。

至于SPV proof(轻节点证明)方案,虽然可以做到不需要信任的去中心化,但是其需要比特币的脚本语言引入新的OP操作码,本身也存在不少问题,所以一直都没有实施。

那么,目前比特币根本没有完美的跨链方案。

既然比特币跨链实现起来难度很大,我们不妨换一种思路。

如果可以在DeFi应用中直接生成挂钩比特币的虚拟资产,使投资者可以参与比特币的做多和做空,那就可以跳过跨链这一步了。Coinversation Protocol中的合成资产正是实现了这个功能。

也就是Coinversation中的cBTC不需要用户转入任何真正的比特币,持有cBTC就可以获得BTC上涨的收益。

而且相比传统中心化合约交易所用户需要先有比特币作为保证金才能参与合约交易,Coinversation的系统不需要用户持有比特币,直接抵押CTO即可参与。

并且Coinversation采用的波卡合约链本身就支持智能合约,用户自己掌握私钥,不需要担心任何安全性的问题。

我们可以把这样的合成资产看成是另一种形式的“跨链”。从更大的范围看,合成资产不仅仅可以生成链上资产,也能生成各种链下资产,也就是真实世界中的股票、黄金、大宗商品也都可以“跨链”进入Coinversation。

转载地址:http://uzec.baihongyu.com/

你可能感兴趣的文章
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>
NIFI从Oracle11G同步数据到Mysql_亲测可用_解决数据重复_数据跟源表不一致的问题---大数据之Nifi工作笔记0065
查看>>
NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
查看>>
nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
查看>>
NIFI分页获取Mysql数据_导入到Hbase中_并可通过phoenix客户端查询_含金量很高的一篇_搞了好久_实际操作05---大数据之Nifi工作笔记0045
查看>>
NIFI分页获取Postgresql数据到Hbase中_实际操作---大数据之Nifi工作笔记0049
查看>>
NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
查看>>
NIFI同步MySql数据源数据_到原始库hbase_同时对数据进行实时分析处理_同步到清洗库_实际操作06---大数据之Nifi工作笔记0046
查看>>
Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
查看>>