data-setting cache --cache-root=./cache/dista --cache-name=data-0
data-setting to --device=cuda:0
data-setting add-self-loop
data-setting anchor-as-feature
tasker static-graph-dl
tasker node-cls 
tasker model-metrics
module sage --as=encoder
    --in-size=2 --hidden-size=100
    --num-layers=4 --dropout=0.2 
    --aggregator-type=pool --weighted
    --return-hiddens
module mlp --as=cls1
    --in-size=100 --hidden-size=16 --out-size=20
    --num-hidden-layers=0 --dropout=0.2
module mlp --as=cls2
    --in-size=100 --hidden-size=16 --out-size=20
    --num-hidden-layers=0 --dropout=0.2
module mlp --as=cls3
    --in-size=100 --hidden-size=16 --out-size=20
    --num-hidden-layers=0 --dropout=0.2
module mlp --as=cls4
    --in-size=100 --hidden-size=16 --out-size=20
    --num-hidden-layers=0 --dropout=0.2
module multi-classifiers --as=classifier
    --classifiers cls1 cls2 cls3 cls4
module dist-loss --as=loss --mode=dist
module node-cls-decoder --as=decoder
    --classifier=classifier
    --loss-func=loss
module encoder-decoder --as=model
    --encoder=encoder --decoder=decoder
module adam --as=optimizer --lr=0.01 --weight-decay=0
trainer pytorch-plain --n-epoches=10000 --eval-every=10
