Perfeito para pesquisas sobre direção autônoma.
O Self-Driving Car Research Studio da Quanser é uma plataforma altamente expansível e poderosa, projetada especificamente para pesquisas acadêmicas. Use-a para acelerar a sua pesquisa e amplie sua frota de veículos. Vários ambientes de software são compatíveis com essa plataforma. O estúdio traz para você as ferramentas e componentes necessários para testar e validar a geração de dados, mapeamento, navegação, machine learning, inteligência artificial e outros conceitos avançados de direção autônoma.
Visão Geral
O Qcar é a grande estrela do Self-Driving Car Research Studio. Ele é um veículo de arquitetura aberta, equipado com um supercomputador NVIDIA® Jetson ™ TX2 e equipado com uma ampla gama de sensores, câmeras, encoders e ainda conta com entradas expansíveis para a inclusão de novos sensores customizados.
Contando com uma ampla gama de ferramentas, incluindo Simulink®, Python™, TensorFlow e ROS, o estúdio permite que pesquisadores construam suas aplicações de alto nível e reconfigurem processos de baixo nível amparados por módulos e bibliotecas pré-construídas. Com esses blocos de construção, você pode explorar diferentes tópicos de pesquisa como: machine learning e treinamento em inteligência artificial, realidade aumentada / mista, transporte inteligente, cenários para vários veículos com gerenciamento de tráfego, autonomia cooperativa, navegação, mapeamento e controle e muito mais!
Demonstração do Self-Driving Car Research Studio
Dimensions | 39 x 21 x 21 cm |
Weight (with batteries) | 2.7 kg |
Power | 3S 11.1 V LiPo (3300 mAh) with XT60 connector |
Operation time (approximate) | 2 hr 11 m (stationary, with sensors feedback) |
35 m (driving, with sensor feedback) | |
Onboard computer | NVIDIA® Jetson™ TX2 |
CPU: 1.2 GHz quad-core ARM Cortex-A57 64-bit + 1.2 GHz Dual-Core NVIDIA Denver2 64-bit | |
GPU: 256-core NVIDIA Pascal™ GPU architecture , 1.3 TFLOPS (FP16) | |
Memory: 8GB 128-bit LPDDR4 @ 1866 MHz, 59.7 GB/s | |
LIDAR | LIDAR with 2k-8k resolution, 10-15Hz scan rate, 12m range |
Cameras | Intel D435 RGBD Camera |
360° 2D CSI Cameras using 4x 160° FOV wide angle lenses, 21fps to 120fps | |
Encoders | 720 count motor encoder pre-gearing with hardware digital tachometer |
IMU | 9 axis IMU sensor (gyro, accelerometer, magnetometer) |
Safety features | Hardware “safe” shutdown button |
Auto-power off to protect batteries | |
Expandable IO | 2x SPI |
4x I2C | |
40x GPIO (digital) | |
4x USB 3.0 ports | |
1x USB 2.0 OTG port | |
3x Serial | |
4x Additional encoders with hardware digital tachometer | |
4x Unipolar analog input, 12 bit, 3.3V | |
2x CAN Bus | |
8x PWM (shared with GPIO) | |
Connectivity | WiFi 802.11a/b/g/n/ac 867Mbps with dual antennas |
2x HDMI ports for dual monitor support | |
1x 10/100/1000 BASE-T Ethernet | |
Additional QCar feautres | Headlights, brake lights, turn signals, and reverse lights (with intensity control) |
Dual microphones | |
Speaker | |
LCD diagnostic monitoring, battery voltage, and custom text support |
Supported Software and APIs | QUARC Autonomous Software License |
Quanser APIs | |
TensorFlow | |
TensorRT | |
Python™ 2.7 & 3 | |
ROS 1 & 2 | |
CUDA® | |
cuDNN | |
OpenCV | |
Deep Stream SDK | |
VisionWorks® | |
VPI™ | |
GStreamer | |
Jetson Multimedia APIs | |
Docker containers with GPU support | |
Simulink® with Simulink Coder | |
Simulation and virtual training environments (Gazebo, QuanserSim) | |
Multi-language development supported with Quanser Stream APIs for inter-process communication | |
Unreal Engine |