摘要:作者比原项目仓库地址地址在前一篇中,我们说到,当比原向其它节点请求区块数据时,会发送一个把需要的区块告诉对方,并把该信息对应的二进制数据放入对应的通道中,等待发送。这个就是真正与连接对象绑定的一个缓存区,写入到它里面的数据,会被发送出去。
作者:freewind
比原项目仓库:
Github地址:https://github.com/Bytom/bytom
Gitee地址:https://gitee.com/BytomBlockc...
在前一篇中,我们说到,当比原向其它节点请求区块数据时,BlockKeeper会发送一个BlockRequestMessage把需要的区块height告诉对方,并把该信息对应的二进制数据放入ProtocolReactor对应的sendQueue通道中,等待发送。而具体的发送细节,由于逻辑比较复杂,所以在前一篇中并未详解,放到本篇中。
由于sendQueue是一个通道,数据放进去后,到底是由谁在什么情况下取走并发送,BlockKeeper这边是不知道的。经过我们在代码中搜索,发现只有一个类型会直接监视sendQueue中的数据,它就是前文出现的MConnection。MConnection的对象在它的OnStart方法中,会监视sendQueue中的数据,然后,等发现数据时,会将之取走并放入一个叫sending的通道里。
事情变得有点复杂了:
由前篇我们知道,一个MConnection对应了一个与peer的连接,而比原节点之间建立连接的情况又有多种:比如主动连接别的节点,或者别的节点主动连上我
放入通道sending之后,我们还需要知道又是谁在什么情况下会监视sending,取走它里面的数据
sending中的数据被取走后,又是如何被发送到其它节点的呢?
还是像以前一样,遇到复杂的问题,我们先通过“相互独立,完全穷尽”的原则,把它分解成一个个小问题,然后依次解决。
那么首先我们需要弄清楚的是:
比原在什么情况下,会创建MConnection的对象并调用其OnStart方法?(从而我们知道sendQueue中的数据是如何被监视的)
经过分析,我们发现MConnection的启动,只出现在一个地方,即Peer的OnStart方法中。那么就这个问题就变成了:比原在什么情况下,会创建Peer的对象并调用其OnStart方法?
再经过一番折腾,终于确定,在比原中,在下列4种情况Peer.OnStart方法最终会被调用:
比原节点启动后,主动去连接配置文件指定的种子节点、以及本地数据目录中addrbook.json中保存的节点的时候
比原监听本地p2p端口后,有别的节点连上来的时候
启动PEXReactor,并使用它自己的协议与当前连接上的节点进行通信的时候
在一个没有用上的Switch.Connect2Switches方法中(可忽略)
第4种情况我们完全忽略。第3种情况中,由于PEXReactor会使用类似于BitTorrent的文件分享协议与其它节点分享数据,逻辑比较独立,算是一种辅助作用,我们也暂不考虑。这样我们就只需要分析前两种情况了。
比原节点启动时,是如何主动连接其它节点,并最终调用了MConnection.OnStart方法的?首先我们快速走到SyncManager.Start方法:
cmd/bytomd/main.go#L54
func main() { cmd := cli.PrepareBaseCmd(commands.RootCmd, "TM", os.ExpandEnv(config.DefaultDataDir())) cmd.Execute() }
cmd/bytomd/commands/run_node.go#L41
func runNode(cmd *cobra.Command, args []string) error { n := node.NewNode(config) if _, err := n.Start(); err != nil { // ... }
node/node.go#L169
func (n *Node) OnStart() error { // ... n.syncManager.Start() // ... }
netsync/handle.go#L141
func (sm *SyncManager) Start() { go sm.netStart() // ... }
然后我们将进入netStart()方法。在这个方法中,比原将主动连接其它节点:
func (sm *SyncManager) netStart() error { // ... if sm.config.P2P.Seeds != "" { // dial out seeds := strings.Split(sm.config.P2P.Seeds, ",") if err := sm.DialSeeds(seeds); err != nil { return err } } return nil }
这里出现的sm.config.P2P.Seeds,对应的就是本地数据目录中config.toml中的p2p.seeds中的种子结点。
接着通过sm.DialSeeds去主动连接每个种子:
netsync/handle.go#L229-L231
func (sm *SyncManager) DialSeeds(seeds []string) error { return sm.sw.DialSeeds(sm.addrBook, seeds) }
p2p/switch.go#L311-L340
func (sw *Switch) DialSeeds(addrBook *AddrBook, seeds []string) error { // ... for i := 0; i < len(perm)/2; i++ { j := perm[i] sw.dialSeed(netAddrs[j]) } // ... }
p2p/switch.go#L342-L349
func (sw *Switch) dialSeed(addr *NetAddress) { peer, err := sw.DialPeerWithAddress(addr, false) // ... }
p2p/switch.go#L351-L392
func (sw *Switch) DialPeerWithAddress(addr *NetAddress, persistent bool) (*Peer, error) { // ... peer, err := newOutboundPeerWithConfig(addr, sw.reactorsByCh, sw.chDescs, sw.StopPeerForError, sw.nodePrivKey, sw.peerConfig) // ... err = sw.AddPeer(peer) // ... }
先是通过newOutboundPeerWithConfig创建了peer,然后把它加入到sw(即Switch对象)中。
p2p/switch.go#L226-L275
func (sw *Switch) AddPeer(peer *Peer) error { // ... // Start peer if sw.IsRunning() { if err := sw.startInitPeer(peer); err != nil { return err } } // ... }
在sw.startInitPeer中,将会调用peer.Start:
p2p/switch.go#L300-L308
func (sw *Switch) startInitPeer(peer *Peer) error { peer.Start() // ... }
而peer.Start对应了Peer.OnStart,最后就是:
p2p/peer.go#L207-L211
func (p *Peer) OnStart() error { p.BaseService.OnStart() _, err := p.mconn.Start() return err }
可以看到,在这里调用了mconn.Start,终于找到了。总结一下就是:
Node.Start -> SyncManager.Start -> SyncManager.netStart -> Switch.DialSeeds -> Switch.AddPeer -> Switch.startInitPeer -> Peer.OnStart -> MConnection.OnStart
那么,第一种主动连接别的节点的情况就到这里分析完了。下面是第二种情况:
当别的节点连接到本节点时,比原是如何走到MConnection.OnStart方法这一步的?比原节点启动后,会监听本地的p2p端口,等待别的节点连接上来。那么这个流程又是什么样的呢?
由于比原节点的启动流程在目前的文章中已经多次出现,这里就不贴了,我们直接从Switch.OnStart开始(它是在SyncManager启动的时候启动的):
p2p/switch.go#L186-L185
func (sw *Switch) OnStart() error { // ... for _, peer := range sw.peers.List() { sw.startInitPeer(peer) } // Start listeners for _, listener := range sw.listeners { go sw.listenerRoutine(listener) } // ... }
这个方法经过省略以后,还剩两块代码,一块是startInitPeer(...),一块是sw.listenerRoutine(listener)。
如果你刚才在读前一节时留意了,就会发现,startInitPeer(...)方法马上就会调用Peer.Start。然而在这里需要说明的是,经过我的分析,发现这块代码实际上没有起到任何作用,因为在当前这个时刻,sw.peers总是空的,它里面还没有来得及被其它的代码添加进peer。所以我觉得它可以删掉,以免误导读者。(提了一个issue,参见#902)
第二块代码,listenerRoutine,如果你还有印象的话,它就是用来监听本地p2p端口的,在前面“比原是如何监听p2p端口的”一文中有详细的讲解。
我们今天还是需要再挖掘一下它,看看它到底是怎么走到MConnection.OnStart的:
p2p/switch.go#L498-L536
func (sw *Switch) listenerRoutine(l Listener) { for { inConn, ok := <-l.Connections() // ... err := sw.addPeerWithConnectionAndConfig(inConn, sw.peerConfig) // ... } }
这里的l就是监听本地p2p端口的Listener。通过一个for循环,拿到连接到该端口的节点的连接,生成新peer。
func (sw *Switch) addPeerWithConnectionAndConfig(conn net.Conn, config *PeerConfig) error { // ... peer, err := newInboundPeerWithConfig(conn, sw.reactorsByCh, sw.chDescs, sw.StopPeerForError, sw.nodePrivKey, config) // ... if err = sw.AddPeer(peer); err != nil { // ... } // ... }
生成新的peer之后,调用了Switch的AddPeer方法。到了这里,就跟前一节一样了,在AddPeer中将调用sw.startInitPeer(peer),然后调用peer.Start(),最后调用了MConnection.OnStart()。由于代码一模一样,就不贴出来了。
总结一下,就是:
Node.Start -> SyncManager.Start -> SyncManager.netStart -> Switch.OnStart -> Switch.listenerRoutine -> Switch.addPeerWithConnectionAndConfig -> Switch.AddPeer -> Switch.startInitPeer -> Peer.OnStart -> MConnection.OnStart
那么,第二种情况我们也分析完了。
不过到目前为止,我们只解决了这次问题中的第一个小问题,即:我们终于知道了比原代码会在什么情况来启动一个MConnection,从而监视sendQueue通道,把要发送的信息数据,转到了sending通道中。
那么,我们进入下一个小问题:
数据放入通道sending之后,谁又会来取走它们呢?经过分析之后,发现通道sendQueue和sending都属于类型Channel,只不过两者作用不同。sendQueue是用来存放待发送的完整的信息数据,而sending更底层一些,它持有的数据可能会被分成多个块发送。如果只有sendQueue一个通道,那么很难实现分块的操作的。
而Channel的发送是由MConnection来调用的,幸运的是,当我们一直往回追溯下去,发现竟走到了MConnection.OnStart这里。也就是说,我们在这个小问题中,研究的正好是前面两个链条后面的部分:
Node.Start -> SyncManager.Start -> SyncManager.netStart -> Switch.DialSeeds -> Switch.AddPeer -> Switch.startInitPeer -> Peer.OnStart -> MConnection.OnStart -> ???
Node.Start -> SyncManager.Start -> SyncManager.netStart -> Switch.OnStart -> Switch.listenerRoutine -> Switch.addPeerWithConnectionAndConfig -> Switch.AddPeer -> Switch.startInitPeer -> Peer.OnStart -> MConnection.OnStart -> ???
也就是上面的???部分。
那么我们就直接从MConnection.OnStart开始:
p2p/connection.go#L152-L159
func (c *MConnection) OnStart() error { // ... go c.sendRoutine() // ... }
c.sendRoutine()方法就是我们需要的。当MConnection启动以后,就会开始进行发送操作(等待数据到来)。它的代码如下:
p2p/connection.go#L289-L343
func (c *MConnection) sendRoutine() { // ... case <-c.send: // Send some msgPackets eof := c.sendSomeMsgPackets() if !eof { // Keep sendRoutine awake. select { case c.send <- struct{}{}: default: } } } // ... }
这个方法本来很长,只是我们省略掉了很多无关的代码。里面的c.sendSomeMsgPackets()就是我们要找的,但是,我们突然发现,怎么又出来了一个c.send通道?它又有什么用?而且看起来好像只有当这个通道里有东西的时候,我们才会去调用c.sendSomeMsgPackets(),似乎像是一个铃铛一样用来提醒我们。
那么c.send什么时候会有东西呢?检查了代码之后,发现在以下3个地方:
p2p/connection.go#L206-L239
func (c *MConnection) Send(chID byte, msg interface{}) bool { // ... success := channel.sendBytes(wire.BinaryBytes(msg)) if success { // Wake up sendRoutine if necessary select { case c.send <- struct{}{}: // .. }
p2p/connection.go#L243-L271
func (c *MConnection) TrySend(chID byte, msg interface{}) bool { // ... ok = channel.trySendBytes(wire.BinaryBytes(msg)) if ok { // Wake up sendRoutine if necessary select { case c.send <- struct{}{}: // ... }
p2p/connection.go#L289-L343
func (c *MConnection) sendRoutine() { // .... case <-c.send: // Send some msgPackets eof := c.sendSomeMsgPackets() if !eof { // Keep sendRoutine awake. select { case c.send <- struct{}{}: // ... }
如果我们对前一篇文章还有印象,就会记得channel.trySendBytes是在我们想给对方节点发信息时调用的,调用完以后,它会把信息对应的二进制数据放入到channel.sendQueue通道(所以才有了本文)。channel.sendBytes我们目前虽然还没用到,但是它也应该是类似的。在它们两个调用完之后,它们都会向c.send通道里放入一个数据,用来通知Channel有数据可以发送了。
而第三个sendRoutine()就是我们刚刚走到的地方。当我们调用c.sendSomeMsgPackets()发送了sending中的一部分之后,如果还有剩余的,则继续向c.send放个数据,提醒可以继续发送。
那到目前为止,发送数据涉及到的Channel就有三个了,分别是sendQueue、sending和send。之所以这么复杂,根本原因就是想把数据分块发送。
为什么要分块发送呢?这是因为比原希望能控制发送速率,让节点之间的网速能保持在一个合理的水平。如果不限制的话,一下子发出大量的数据,一是可能会让接收者来不及处理,二是有可能会被恶意节点利用,请求大量区块数据把带宽占满。
担心sendQueue、sending和send这三个通道不太好理解,我想到了一个“烧鸭店”的比喻,来理解它们:
sendQueue就像是用来挂烤好的烧鸭的勾子,可以有多个(但对于比原来说,默认只有一个,因为sendQueue的容量默认为1),当有烧鸭烤好以后,就挂在勾子上;
sending是砧板,可以把烧鸭从sendQueue勾子上取下来一只,放在上面切成块,等待装盘,一只烧鸭可能可以装成好几盘;
而send是铃铛,当有人点单后,服务员就会按一下铃铛,厨师就从sending砧板上拿几块烧鸭放在小盘中放在出餐口。由于厨师非常忙,每次切出一盘后都可能会去做别的事情,而忘了sending砧板上还有烧鸭没装盘,所以为了防止自己忘记,他每切出一盘之后,都会看一眼sending砧板,如果还有肉,就会按一下铃铛提醒自己继续装盘。
好了,理解了send后,我们就可以回到主线,继续看c.sendSomeMsgPackets()的代码了:
p2p/connection.go#L347-L360
func (c *MConnection) sendSomeMsgPackets() bool { // Block until .sendMonitor says we can write. // Once we"re ready we send more than we asked for, // but amortized it should even out. c.sendMonitor.Limit(maxMsgPacketTotalSize, atomic.LoadInt64(&c.config.SendRate), true) // Now send some msgPackets. for i := 0; i < numBatchMsgPackets; i++ { if c.sendMsgPacket() { return true } } return false }
c.sendMonitor.Limit的作用是限制发送速率,其中maxMsgPacketTotalSize即每个packet的最大长度为常量10240,第二个参数是预先指定的发送速率,默认值为500KB/s,第三个参数是说,当实际速度过大时,是否暂停发送,直到变得正常。
经过限速的调整后,后面一段就可以正常发送数据了,其中的c.sendMsgPacket是我们继续要看的方法:
p2p/connection.go#L363-L398
func (c *MConnection) sendMsgPacket() bool { // ... n, err := leastChannel.writeMsgPacketTo(c.bufWriter) // .. c.sendMonitor.Update(int(n)) // ... return false }
这个方法最前面我省略了一大段代码,其作用是检查多个channel,结合它们的优先级和已经发的数据量,找到当前最需要发送数据的那个channel,记为leastChannel。
然后就是调用leastChannel.writeMsgPacketTo(c.bufWriter),把当前要发送的一块数据,写到bufWriter中。这个bufWriter就是真正与连接对象绑定的一个缓存区,写入到它里面的数据,会被Go发送出去。它的定义是在创建MConnection的地方:
p2p/connection.go#L114-L118
func NewMConnectionWithConfig(conn net.Conn, chDescs []*ChannelDescriptor, onReceive receiveCbFunc, onError errorCbFunc, config *MConnConfig) *MConnection { mconn := &MConnection{ conn: conn, bufReader: bufio.NewReaderSize(conn, minReadBufferSize), bufWriter: bufio.NewWriterSize(conn, minWriteBufferSize),
其中minReadBufferSize为1024,minWriteBufferSize为65536。
数据写到bufWriter以后,我们就不需要关心了,交给Go来操作了。
在leastChannel.writeMsgPacketTo(c.bufWriter)调用完以后,后面会更新c.sendMonitor,这样它才能继续正确的限速。
这时我们已经知道数据是怎么发出去的了,但是我们还没有找到是谁在监视sending里的数据,那让我们继续看leastChannel.writeMsgPacketTo:
p2p/connection.go#L655-L663
func (ch *Channel) writeMsgPacketTo(w io.Writer) (n int, err error) { packet := ch.nextMsgPacket() wire.WriteByte(packetTypeMsg, w, &n, &err) wire.WriteBinary(packet, w, &n, &err) if err == nil { ch.recentlySent += int64(n) } return }
其中的ch.nextMsgPacket()是取出下一个要发送的数据块,那么是从哪里取出呢?是从sending吗?
其后的代码是把数据块对象变成二进制,放入到前面的bufWriter中发送。
继续ch.nextMsgPacket():
p2p/connection.go#L638-L651
func (ch *Channel) nextMsgPacket() msgPacket { packet := msgPacket{} packet.ChannelID = byte(ch.id) packet.Bytes = ch.sending[:cmn.MinInt(maxMsgPacketPayloadSize, len(ch.sending))] if len(ch.sending) <= maxMsgPacketPayloadSize { packet.EOF = byte(0x01) ch.sending = nil atomic.AddInt32(&ch.sendQueueSize, -1) // decrement sendQueueSize } else { packet.EOF = byte(0x00) ch.sending = ch.sending[cmn.MinInt(maxMsgPacketPayloadSize, len(ch.sending)):] } return packet }
终于看到sending了。从这里可以看出,sending的确是放着很多块鸭肉的砧板,而packet就是一个小盘,所以需要从先sending中拿出不超过指定长度的数据放到packet中,然后判断sending里还有没有剩下的。如果有,则packet的EOF值为0x00,否则为0x01,这样调用者就知道数据有没有发完,还需不需要去按那个叫send的铃。
那么到这里为止,我们就知道原来还是Channel自己在关注sending,并且为了限制发送速度,需要把它切成一个个小块。
最后就我们的第三个小问题了,其实我们刚才在第二问里已经弄清楚了。
sending中的数据被取走后,又是如何被发送到其它节点的呢?答案就是,sending中的数据被分成一块块取出来后,会放入到bufWriter中,就直接被Go的net.Conn对象发送出去了。到这一层面,就不需要我们再继续深入了。
总结由于本篇中涉及的方法调用比较多,可能看完都乱了,所以在最后,我们前面调用链补充完整,放在最后:
Node.Start -> SyncManager.Start -> SyncManager.netStart -> Switch.DialSeeds -> Switch.AddPeer -> Switch.startInitPeer -> Peer.OnStart -> MConnection.OnStart -> ...
Node.Start -> SyncManager.Start -> SyncManager.netStart -> Switch.OnStart -> Switch.listenerRoutine -> Switch.addPeerWithConnectionAndConfig -> Switch.AddPeer -> Switch.startInitPeer -> Peer.OnStart -> MConnection.OnStart -> ...
然后是:
MConnection.sendRoutine -> MConnection.send -> MConnection.sendSomeMsgPackets -> MConnection.sendMsgPacket -> MConnection.writeMsgPacketTo -> MConnection.nextMsgPacket -> MConnection.sending
到了最后,我的感觉就是,一个复杂问题最开始看起来很可怕,但是一旦把它分解成小问题之后,每次只关注一个,各个击破,好像就没那么复杂了。
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/24156.html
摘要:到这里,我们总算能够完整的理解清楚,当我们向一个比原节点请求区块数据,我们这边需要怎么做,对方节点又需要怎么做了。 作者:freewind 比原项目仓库: Github地址:https://github.com/Bytom/bytom Gitee地址:https://gitee.com/BytomBlockc... 在上一篇,我们知道了比原是如何把请求区块数据的信息BlockReque...
摘要:作者比原项目仓库地址地址在上上篇文章里,我们还剩下一个小问题没有解决,即前端是如何显示一个交易的详细信息的。那我们在本文看一下,比原是如何显示这个交易的详细信息的。到今天为止,我们终于把比原是如何创建一个交易的这件事的基本流程弄清楚了。 作者:freewind 比原项目仓库: Github地址:https://github.com/Bytom/bytom Gitee地址:https:/...
摘要:如果传的是,就会在内部使用默认的随机数生成器生成随机数并生成密钥。使用的是,生成的是一个形如这样的全球唯一的随机数把密钥以文件形式保存在硬盘上。 作者:freewind 比原项目仓库: Github地址:https://github.com/Bytom/bytom Gitee地址:https://gitee.com/BytomBlockc... 在前一篇,我们探讨了从浏览器的dashb...
摘要:继续看生成地址的方法由于这个方法里传过来的是而不是对象,所以还需要再用查一遍,然后,再调用这个私有方法创建地址该方法可以分成部分在第块中主要关注的是返回值。 作者:freewind 比原项目仓库: Github地址:https://github.com/Bytom/bytom Gitee地址:https://gitee.com/BytomBlockc... 在比原的dashboard中...
摘要:作者比原项目仓库地址地址在前一篇中,我们已经知道如何连上一个比原节点的端口,并与对方完成身份验证。代码如下可以看到,首先是从众多的中,找到最合适的那个。到这里,我们其实已经知道比原是如何向其它节点请求区块数据,以及何时把信息发送出去。 作者:freewind 比原项目仓库: Github地址:https://github.com/Bytom/bytom Gitee地址:https://...
阅读 619·2021-11-15 11:39
阅读 2804·2021-10-08 10:04
阅读 3228·2019-08-30 10:57
阅读 2963·2019-08-26 13:25
阅读 1851·2019-08-26 12:14
阅读 2593·2019-08-23 15:27
阅读 2954·2019-08-23 15:18
阅读 1712·2019-08-23 14:26