Show Table of Contents
17.5. Utiliser le client de gestion PTP
Le client de gestion
PTP, pmc, peut être utilisé pour obtenir des informations supplémentaires de ptp4l comme suit :
~]# pmc -u -b 0 'GET CURRENT_DATA_SET'
sending: GET CURRENT_DATA_SET
90e2ba.fffe.20c7f8-0 seq 0 RESPONSE MANAGMENT CURRENT_DATA_SET
stepsRemoved 1
offsetFromMaster -142.0
meanPathDelay 9310.0
~]# pmc -u -b 0 'GET TIME_STATUS_NP'
sending: GET TIME_STATUS_NP
90e2ba.fffe.20c7f8-0 seq 0 RESPONSE MANAGMENT TIME_STATUS_NP
master_offset 310
ingress_time 1361545089345029441
cumulativeScaledRateOffset +1.000000000
scaledLastGmPhaseChange 0
gmTimeBaseIndicator 0
lastGmPhaseChange 0x0000'0000000000000000.0000
gmPresent true
gmIdentity 00a069.fffe.0b552d
Définir l'option
-b sur zéro limite la valeur « Boundary » à l'instance ptp4l exécutée localement. Une valeur « Boundary » plus importante récupérera également les informations des nœuds PTP plus éloignés de l'horloge locale. Les informations récupérables incluent :
stepsRemovedest le nombre de chemins de communication vers le « Grandmaster Clock ».offsetFromMasteret master_offset est le dernier décalage mesuré de l'horloge depuis l'horloge maître en nanosecondes.meanPathDelayest le délai estimé des messages de synchronisation envoyés depuis l'horloge maître en nanosecondes.- Si
gmPresentest « true », l'horlogePTPest synchronisée sur une horloge maitre, l'horloge locale ne sera plus le « Grandmaster Clock ». gmIdentityest l'identité du « Grandmaster ».
Pour afficher une liste complète des commandes pmc, veuillez saisir ce qui suit en tant qu'utilisateur
root :
~]# pmc help
Des informations supplémentaires sont disponibles sur la page man pmc(8).

Where did the comment section go?
Red Hat's documentation publication system recently went through an upgrade to enable speedier, more mobile-friendly content. We decided to re-evaluate our commenting platform to ensure that it meets your expectations and serves as an optimal feedback mechanism. During this redesign, we invite your input on providing feedback on Red Hat documentation via the discussion platform.