本篇內容介紹了“openstack中的rpc如何遠程調用”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
看不明白這個圖對于看nova代碼,其實不是很重要,直接忽略以后再看也可以,當務之急是解決一下看openstack代碼遇到rpc就跟丟了的問題
這三個其實不是一個層面的東西,本質上不應該放在一起比,但是因為都用來通信,比較容易混淆就還是解釋一下
RESTful:主要用于各組件之間的通信(比如nova與glance的通信),或者說用于組件對外提供調用接口
RPC:則用于同一組件中各個不同模塊之間的通信(比如nova組件中nova-compute與-nova-scheduler的通信)
消息隊列:用于解耦組件,也是組件間通信用的,而且會有一個隊列用來暫存消息
nova/nova/nova/conductor/tasks/live_migrate.py
class LiveMigrationTask(base.TaskBase): def __init__(self, context, instance, destination, block_migration, disk_over_commit, migration, compute_rpcapi, servicegroup_api, scheduler_client): super(LiveMigrationTask, self).__init__(context, instance) ... def _execute(self): self._check_instance_is_active() self._check_host_is_up(self.source) if not self.destination: self.destination = self._find_destination() self.migration.dest_compute = self.destination self.migration.save() else: self._check_requested_destination() # TODO(johngarbutt) need to move complexity out of compute manager # TODO(johngarbutt) disk_over_commit? #調用 ComputeAPI 類中的 live_migration() RPC接口 return self.compute_rpcapi.live_migration(self.context, host=self.source, instance=self.instance, dest=self.destination, block_migration=self.block_migration, migration=self.migration, migrate_data=self.migrate_data)
conductor
以compute_rpcapi.live_migration
的方式遠程調用compute
的live_migration
,過程就是, conductor
以RPC
的方式發出一個請求到Queue
再被nova-compute
接收
nova/nova/nova/compute/rpcapi.py
class ComputeAPI(object): # 這是一個RPC遠程調用的方法 def live_migration(self, ctxt, instance, dest, block_migration, host, migration, migrate_data=None): args = {'migration': migration} version = '4.2' if not self.client.can_send_version(version): version = '4.0' # 獲取目標 compute 主機(DEST HOST)的RPC client,即被調用的服務進程的HostIP cctxt = self.client.prepare(server=host, version=version) # 通過目標主機對象的 RPC cliient 來調用遠程過程方法 cast() ,以此來實現遠程調用 cctxt.cast(ctxt, 'live_migration', instance=instance, dest=dest, block_migration=block_migration, migrate_data=migrate_data, **args) # cast()異步遠程調用,不會阻塞別的進程,適合于需要長時間進行的執行過程 # cast()的第二個參數是RPC client調用的函數名,case()后面的參數會繼續作為參數傳入該調用函數 # cast()函數內的live_migration()函數是 manager.live_migration() 視具體實現遷移功能的函數,在manager.py內實現。
調用的時候是從nova/nova/conductor/tasks/live_migrate.py
到nova/nova/compute/rpcapi.py
,但是實際上是compute
服務首先得在rpcapi.py
提供出接口函數,然后使用者通過
- 1. import導入的方式去使用rpc調用
- 2. 類實例化傳參的方式去引入
熱遷移這里用的就是類實例化傳參
tip: call()表示同步調用 和 cast()表示異步調用
根據在rpc.py
或者rpcapi.py
中的cast()
的第二個參數,去該服務下的manager.py
中找和這個參數同名的函數(這個就是rpc
最終想要調用的函數),我們這里是compute_rpcapi
,所以要去找compute
下的mannager.py
為什么要去找mannager,是因為nova.compute.manager 會一直監聽 Queue ,當Queue中存在相關的 RPC 請求時,就去完成這個請求
nova/nova/nova/compute/manager.py
@wrap_exception() @wrap_instance_event(prefix='compute') @wrap_instance_fault def live_migration(self, context, dest, instance, block_migration, migration, migrate_data): """執行實時遷移。 :param context: security context :param dest: destination host :param instance: a nova.objects.instance.Instance object :param block_migration: if true, prepare for block migration :param migration: an nova.objects.Migration object :param migrate_data: implementation specific params """ self._set_migration_status(migration, 'queued') def dispatch_live_migration(*args, **kwargs): with self._live_migration_semaphore: # 調用_do_live_migration執行遷移 self._do_live_migration(*args, **kwargs) # NOTE(danms): We spawn here to return the RPC worker thread back to # the pool. Since what follows could take a really long time, we don't # want to tie up RPC workers. utils.spawn_n(dispatch_live_migration, context, dest, instance, block_migration, migration, migrate_data)
當然實際干活的還不是manager.py
的def live_migration
,而是live_migration
函數去調用_do_live_migration
,但是之后的就是熱遷移的流程,在之前的文檔里寫了就不展開了,反正rpc的體現就只到這里
冷遷移中還有很多例子,不一一列舉了,有興趣可以去看冷遷移源碼分析這篇博客
看完例子會發現,既然原生的代碼既然已經寫了rpc調用,那么對應的服務肯定已經提供了rpc接口,所以實際上看到compute_rpcapi
,可以不去compute
下的rpc
文件中找了,直接去compute
下的manager
看具體實現(不止compute
,其他服務也一樣),當然,如果需要雪確定是同步還是異步調用那還是不要偷這一步的懶。
完整的rpc應該具有
組件A提供出rpc調用接口(rpc.py
或者rpcapi.py
文件)
組件B引入組件A的rpc (import
或者類實例化傳參
)
組件B調用組件A的rpc(以rpc
方式發送一個請求到消息隊列)
組件A處理請求(組件A監聽到發給自己的rpc
請求會通過manager
處理請求)
如果只是看代碼,那么去對應的manager
下面找實現就可以了,但是如果自己要加就還是的明白從哪里提供的、怎樣導入,何種途徑接收,這樣想在代碼里添加自己的rpc調用才心里有數
“openstack中的rpc如何遠程調用”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。