rokae_robot

UR 機器人的,運行包都在UR。

robot: example_organization_ur_launch ex-ur10-1.launch
rviz: ur10e_moveit_config moveit_planning_execution_4_arm_world.launch

camera在 arm 的gazebo启动方式 arm_world.launch

camera在 arm 的rviz启动方式 rokae_camera_moveit_config moveit_planning_execution.launch

单独添加电池包,battery:rokae_robot/rokae/src/rokae_control/scripts robot_sorting.py

添加电池包并套接,battery:rokae_robot/rokae/src/rokae_control/scripts motion_planning.py 添加电池包时,输入字符“add”,过后按照提出 输入其它字符。若是不加载电池,空一行后回车就可以啦

深度相机,我的问题是 py2 不支持touch. src/rokae_control/scripts/bolt_position_detector.py 拆解原语 src/rokae_control/scripts/testmotion.py

无法查找功能包路径的解决办法,catkin_make ; source devel/setup.bash https://blog.csdn.net/weizhangyjs/article/details/80521021

机器人运动规划数据样例集合, https://python.hotexamples.com/zh/examples/moveit_commander/PlanningSceneInterface/-/python-planningsceneinterface-class-examples.html

RGBD图像转tf, 暂时需要在图像上点击一下,暂时图像检测位置点接口没有添加。src/rokae_control/scripts/bolt_position_detector.py 是螺栓的检测。src/rokae_control/scripts/battery_position.py是电池包位置的检测,里面的面积cv2.contourArea(contour) 即可改变检测范围 rgbd_imgpoint_to_tf.py

deep-learning-for-image-processing中的vgg 是图像处理 和pytorch vgg 是图像处理 是同一个东西。 教程来源https://blog.csdn.net/Action_now_zj/article/details/109250528 数据集也在这里。 脚本解释 https://zhuanlan.zhihu.com/p/279823946 我判断不准确是因为-过拟合

关于nsplanner模块的调用: 首先加载rokae_gazebo arm_world.launch,然后加载rokae_moveit_config moveit_planning_execution_4_arm_world.launch,再运行~/rokae_robot/rokae/src/rokae_control/scripts/env_setup.py,最后运行~/rokae_robot/rokae/src/rokae_control/scripts/nsplanner.py

动作原语的修改在~/rokae_robot/rokae/src/rokae_control/scripts/prim_action.py中

动作执行判据检测在~/rokae_robot/rokae/src/rokae_control/scripts/pri_cri.py中,当前为空,在nsplanner中设定默认执行结果为保守估计的结果。