排行榜

  • 用户榜
  • 标签榜
  • 冲榜分奖金

频道

最新最热悬赏待采纳 筛选
  • 2

    回答

  • 28

    浏览

请问一下各位,我想用yolo系列识别交通标志(如左右转、停止、限速等)结合控制方面,对jetson nano智能小车实现识别+控制,目前是能在nano 上面识别了交通标志,但是下一步结合控制该学什么呢?现在网上的PID、LQR等都是仿真,我想在实际的硬件上跑该怎么学习呢 大

  • 0

    回答

  • 16

    浏览

远程工控机ip:192.168.8.146     nvidia agx ip:192.168.8.125   目的使用工控机远程连接nvidia agx使用ZED2相机 1、使用SSH增加图形界面 根据网上的步骤设置服务端和客户端的SSH配置文件 配置完成后,使用ssh -X连接nvidia agx出现   "  Xlib: extension"NV-GLX" missing on display "localhost:10.0"     " 这个问题我看 https://blog.csdn.net/qq_36462300/article/details/106344332  这篇文章里面说是没有很大影响,具体也不清楚有多大影响。 运行xhost +出现access control disabled, clients can connect from any host  这个应该是正确的e 2、运行xclock出现Error:Cannot open display:192.168.8.146:0.0     xclock 也是检测图像界面的,这里出错了。 3、远程使用ZED2相机,跑ORB-SLAM2出现的问题 运行roslaunch zed_warpper zed2.launch    没有问题 使用ZED2相机跑kitti数据集: ./Examples/Monocular/mono_kitti Vocabulary/ORBvoc.txt Examples/Monocular/KITTI00-02.yaml ../dataset/sequences/00/ 直接运行ZED2相机: rosrun ORB_SLAM2 Stereo /home/nvidia/Desktop/ros/workros_ws/src/orb-slam2-point/Vocabulary/ORBvoc.txt /home/nvidia/Desktop/ros/workros_ws/src/orb-slam2-point/Examples/Stereo/EuRoC.yaml true   这两个在运行过程中都出现这个错误 - libGL error: MESA-LOADER: failed to open swrast (search paths /usr/lib/aarch64-linux-gnu/dri:\$${ORIGIN}/dri:/usr/lib/dri) - libGL error:failed to load driver:swrast - X11 Error:GLXBadFBConfig - pangolin X11:Indirect GLX rendering context obtained     有没有哪个大佬可以帮忙解决下,必有重谢。邮箱:fz990906@163.com

  • 1

    回答

  • 8

    浏览

给定一个长方体状的范围,怎么把这里面的点云数据去除掉呀???求大佬能帮帮忙解决下

回答 m0_46295555
采纳率0%
25天前
  • 0

    回答

  • 2

    浏览

2D cartography跑了好几个包都报这个错误

  • 0

    回答

  • 6

    浏览

我的gazebo版本是11 如下图,图像无法显示,但是在view里开启collision模式后可以看到碰撞图  

  • 2

    回答

  • 48

    浏览

近期做毕设,处理Middlebury stereo的cones影像,可我感觉官网提供的groundtruth影像不太对。我用ps打开左右影像和groundtruth图,按理来讲groundtruth图上的rgb值应为左右影像上的同名点的列号之差*4,可实际上不是,比如:左影像上(258,225)这一点,在右影像上对应位置为(209,225),即该点灰度值应为196,可ps里该点的rgb值却是166,所以我有点懵,望各位大佬指教 cones左影像 cones右影像 groundtruth  

  • 1

    回答

  • 12

    浏览

智能小车在进入小区或者其他地方时候,有没有什么好方法可以让小车自动判断横杆是否正确抬起来,没抬起来不能通行  

  • 3

    回答

  • 34

    浏览

我在https://vision.middlebury.edu/stereo/data/scenes2003/上下载了其提供的分辨率为450*375的cones和teddy两幅图像及其视差图,按照网站的说明文档上讲的,其提供的视差图的生成方式应为(左影像列号-右影像列号)*4,可在ps中打开真实视差图和对应的左右影像,却发现左右影像上同名点的列号之差*4不是视差图上的结果,我目前觉得是它提供的视差图的生成方式不是(左影像列号-右影像列号)*4这么简单,有没有计算机视觉或图像处理或摄影测量遥感领域的大佬,帮忙解释一下原因?下附上述的左右影像及视差图: cones左影像 cones右影像 视差图

  • 0

    回答

  • 6

    浏览

通过读取传感器的数据,进行航位推算。 通过simlink生成加速度计,陀螺仪和里程计的数据。再用最小二乘法确认传感器数据融合的的权重。 有什么具体的学习资料或者代码推荐吗?

  • 2

    回答

  • 18

    浏览

大神们好, 想请教一个问题,我现在和同学一起在写一个python项目, 是在GTA里实现自动驾驶汽车.代码中在 def button() 里面的 x.start() 会启动整个程序,我们还需要一个重启功能restart。 现在不知道怎么restart x.start()。 麻烦指点一下!感激不尽! import numpy as np from PIL import Image import cv2 import time import glob from movement import forward, forwardleft, forwardright from mss import mss from Draw_lanes import Draw_lanes from numpy import ones,vstack from numpy.linalg import lstsq from statistics import mean Should_run=True def Roi(image, vertices): #blank mask: mask = np.zeros_like(image) # fill the mask cv2.fillPoly(mask, vertices, 255) # now only show the area that is the mask masked = cv2.bitwise_and(image, mask) return masked def Screen_Capture(top, left, width, height): monitor = {"top": top, "left": left, "width": width, "height": height} sct = mss() while(True): while(Should_run): last_time = time.time() img=sct.grab(monitor) screen= np.array(img) last_time = time.time() ogim,newim, m1,m2 =Process_img(screen) cv2.imshow("orginal image", ogim) cv2.imshow("prossed image", newim) if m1 < 0 and m2 < 0: forwardright() print("right") elif m1 > 0 and m2 > 0: forwardleft() print("left") else: forward() print("straight") if cv2.waitKey(25) & 0xFF == ord('x'): cv2.destroyAllWindows() break def Process_img(image): m1 =0 m2 =0 original_image = image # convert to gray processed_img = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY) # edge detection processed_img = cv2.Canny(processed_img, threshold1 = 200, threshold2=300) region_of_interest_verticies= np.array([[200,450],[200,450],[300,200],[500,200],[600,450],[600,450],], np.int32) processed_img = cv2.GaussianBlur(processed_img,(5,5),0) processed_img= Roi(processed_img, [region_of_interest_verticies]) lines= cv2.HoughLinesP(processed_img, 1, np.pi/180, 180, 20, 15) try: l1, l2, m1, m2 = Draw_lanes(original_image,lines) original_image=cv2.line(original_image, (l1[0], l1[1]), (l1[2], l1[3]), [0,255,255], 30) original_image=cv2.line(original_image, (l2[0], l2[1]), (l2[2], l2[3]), [0,255,255], 30) except Exception as e: print(str(e)) pass return original_image,processed_img,m1, m2 from tkinter import * from tkinter import ttk import threading import time started = False def initialize(): global a a=0 def self_drive(): a=1 global Should_run Should_run = True Screen_Capture(40,60,800,600) x=threading.Thread(target=self_drive) def self_drive_stop(): global Should_run Should_run = False a=2 def button1(): if x.is_alive(): x.run() if started==False: print("I made it here ") x.start() def inter(): root = Tk() root.title("pyBros") root.minsize(width=200,height=100) button=Button(root, text="Self Drive Start",width=20,command=button1) stop= Button(root,text="Stop Drive",width=20,command=self_drive_stop) manual_drive=Button(root,text="manual Drive",width=20) button.pack(side=LEFT) stop.pack(side=LEFT) manual_drive.pack(side=LEFT) mainloop()  

  • 3

    回答

  • 19

    浏览

求救🆘 大神们好, 想请教一个问题,我现在和同学一起在写一个python项目, 是在GTA里实现自动驾驶汽车.代码中在 def button() 里面的 x.start() 会启动整个程序,我们还需要一个重启功能restart。 现在不知道怎么restart x.start()。 就是我们的这个程序有按钮 button  可以点一下  开始键   结束键   现在需要弄好重新启动键。 有一个思路是重新调用一下x.start()  但是具体不知道怎么操作 谢谢🙏感激不尽!

  • 0

    回答

  • 10

    浏览

teb算法的阿克曼小车导航,导航时gazebo小车先行,rviz隔了一两秒后再走,导致gazebo里面的激光先检测到障碍物,但由于rviz显示还未到该检测到障碍物的地方却显示了周围有很多障碍物,最后导航失败。这个是什么问题呢,是odom的问题吗

  • 0

    回答

  • 3

    浏览

rviz中模型不只前进后退,不在跟着实体一起转动是怎么回事?