ROS技术交流,快来呀
[turtle1-1] process has died [pid 15306, exit code -6, cmd /opt/ros/noetic/lib/turtlesim/turtlesim_node __name:=turtle1 __log:=/home/alaric/.ros/log/fbe9f968-f6aa-11ec-9845-230aa3a71e6e/turtle1-1.log]
catkin_creat_pkg 时 出现如下报错: bash: /usr/local/bin/catkin_create_pkg: /usr/local/bin/python3.8: 解释器错误: 没有那个文件或目录 查了谷歌或百度都没有解决方案
ROS2入门教程——12. 使用ros2 bag录制/回放数据 安装文中步骤操作,是用ros2 播放ros1录制的bag报错, 请问是什么问题? 环境版本信息和文中描述一致,我用的是容器环境 pub@e8e21a7b4c21:~/slam$ ros2 bag play -s rosbag_v2 casual_walk.bag [ERROR] [1655900577.980563362] [ros
胡老师, 您好! 我们想学习一下ROS/ROS2的机械臂控制相关知识。想买台小型的机械臂,不知道市面上有哪些产品值得入手?请您推荐一下! 谢谢!
请大佬们不吝赐教
以下是错误提示: [ERROR] [1655450383.991431079]: "map" passed to lookupTransform argument target_frame does not exist. [ WARN] [1655450386.185040990]: Timed out waiting for transform from base_footprint to ma
如题
我输入roslaunch gazebo_pkg race.launch后 会返回 [gazebo_gui-3] process has died [pid 5498, exit code 139, cmd /opt/ros/melodic/lib/gazebo_ros/gzclient __name:=gazebo_gui __log:=/home/melodic/.ros/log/65ee21a
显示错误内容: Aborting because the robot appears to be oscillating over and over.even after executing all recovery behaviors 大神知道和什么有关系吗?
moveit
想请教一个困惑很久的问题, ubuntu terminal 怎么实现敲命令 table之后的命令提示 能够通过方向键进行选择的? 百度了很久没有找到实现方法。 希望能够指点下,万分感谢
ROS里提供了差速控制器,但是我要做三轮的叉车式AGV,底盘由一个舵轮和两个随动轮组成,小车的运动都是由舵轮带动的,所以说如何才能在仿真环境中模拟单舵轮叉车式AGV的运动控制?
使用arbotix可以让小车在仿真环境中运动,但是小车的运动不是依靠轮子带动的。所以请问如何在rviz或gazebo等仿真环境下控制小车轮子的转动来带动车子运动?是不是只有去购买实体的小车才能做运动控制的实验?
各位大佬,我想用ros控制ur3机箱的输出,摸索半天找到ur_msgs 这个功能包,但是不会用,有没有大佬能教教我怎么用阿
我们目前使用ur3,和srt软体夹爪。 希望通过ros控制夹爪的闭合和打开。 以前是用robotiq的二指夹爪,使用rs485转usb的方式连接上位机。然后使用robotiq提供的功能包进行控制。 现在我们使用ur-rtde可以实现 控制夹爪闭合,但是不能和ros共用, 当我把ros相关的驱动关闭就能用ur-rtde了。 驱动:roslaunch my_ur_robot_drive
我下载的是ubantu18.04,联想r7000p2021版本,win11然后linux双系统。可以帮助我嘛?
20.04的ROS可以兼容低版本的18.04ROS板吗
ros下 d435i相机的深度点云大小和rgb图片大小不一致,怎么调整
goal.trajectory.points[0]消息里有三个值 positions,单位是弧度 velocities,速度的单位是什么? accelerations,加速度的单位是什么?
ros中启动gazebo时报错,怎么解决?
我想做slam导航的agv搬运车 或者扫地机。 现在已经学会单片机底层驱动, ros21讲也基本了解 请教各位下面的路线该怎么学呢, 目前只会c puthon
求助,最近在做一个slam运输小车的项目,发现amcl的定位精度不太理想,重复定位误差在12cm左右,感觉完全不能接受啊。各位大佬知道其他的定位算法吗,在github上有没有现成代码都行,或者一些提高定位精度的方法,非常感谢。
不知道是啥,内容如下。 [ WARN] [1638169209.695937384, 391.085000000]: TF_REPEATED_DATA ignoring data with redundant timestamp for frame right_wheel_link at time 391.056000 according to authority unknown_publish
使用easy_handeye对机械臂进行标定后,发现kinect的点云产生的位置与机械臂的位置有一个较大的偏移。kinect里面是否存在多个相机?标定的相机与产生点云的相机是否不同?相机间的变换如何获取?如何获取正确的数据?
[ WARN] [1631848699.475550512]: Costmap2DROS transform timeout. Current time: 1631848699.4749, global_pose stamp: 1631848698.9679, tolerance: 0.5000[ WARN] [1631848699.475790886]: Could not get robot
参考老师的文档ROS学习:制作自己的TUM数据集 - 古月居 (guyuehome.com) 我用rosbag命令保存rgb和depth两个话题的数据,但是几十秒就占了几个G的数据量,我这边抓的是raw数据;请问如何解决?谢谢
ros Moveit连接上abb机器人后,每次规划终端里都显示Controller is taking too long to execute trajectory (the expected upper bound for the trajectory execution was 51.231233 seconds). Stopping trajectory 要怎么解决
ROS机器人竞赛与人才培养交流会 (暨第五届中国高校智能机器人创意大赛专项赛一解析) 直播时间:4月27日 17:00—19:00 分享内容: 直播链接:hthttps://class.guyuehome.com/detail/l_6262469ae4b01a4851f55121/4tps://class.guyuehome.com/detail/l_621dca45e4b066e9608a
大家有没有校园这种半结构化环境的gazebo仿真world文件阿 有的话可以给个链接吗
在moveit中创建完毕机器人模型,能否通过moveit的接口函数获取6轴机械臂的齐次变换矩阵?
在读取摄像头点云数据的时候遇到了camera_frame_optical,发现他和camera_link还相差90度,想问下这是干嘛的,这两个有啥区别和作用?
关于机械臂轨迹插值算法,可以利用c++接口或者python接口实现吗?还是说必须建立插件集成算法去实现
目前我有个单线雷达和一个深度摄像头,我想对这两个进行联合标定,我发现单纯的标定好像不太行。我想着能不能从深度点云中取出和雷达点云数据同样高度的点云(已经tf转换了),但是我发现单线雷达的高度在深度点云中竟然找不到,我查看了下,雷达点云z轴都是0.68,然后深度点云最小都是1.32,他两我是堆叠放的,不可能差距这么大,我的想法是不是有点问题啊?单线雷达和深度点云可以怎么配准呢?
该怎么把自己的控制的算法用在ros机械臂上呢?比如在gazebo中加入柔顺控制
如题 小车是autolabor pro 1 传感器是微软XBOX上面的体感相机
现在想 用moveit 控制 kuka iiwa 机器人做画四叶草的动作,并记录动作中机器人的各种状态情况。已经有画四叶草轨迹的四百个点的坐标。有chang
在运行pick_and_place_demo.py时,无法实现求解。 按照网上的教程更换了Trac_ik的运动学求解插件,依旧不能求解。 同时,有以下报错: 各位道友们,这该如何解决啊
加入者
泡泡
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信