본문 바로가기

인공지능, 머신러닝, 딥러닝

이건 미쳤는데요?! 테슬라 옵티머스 젠 2 발표, 왜 미쳤다고 하는지 분석합니다. - [👀 새로운 종족의 등장.. 테슬라 옵티머스 Gen 2출처: https://sayopen.tistory.com/765 say:티스토리]

728x90
반응형
SMALL

이건 미쳤는데요?! [테슬라 옵티머스 젠 2 발표, 왜 미쳤다고 하는지 분석합니다.]

 

테슬라의 휴머노이드 로봇 옵티머스의 2세대가 깜짝 발표되었습니다. 1분 40초의 짧은 클립에 다양한 업데이트 소식을 전했는데요. 특히 11 DOF의 손 움직임과 인간을 닮은 2 DOF 머리, 걸음 움직임에 외관은 더욱 세련되게 바뀌었습니다. 왜 이게 놀라운 기술인지 하나하나 파보았습니다.

가장 하이라이트라고 보는 부분이 바로
0:02
지금 보시는 저 손가락 움직임 저
0:04
진짜 완전 인간이지 않습니까 11개의
0:06
자유도를 가진 손이라고 얘기를 하고
0:08
있는데 지금 보시는 것처럼 계란을
0:09
자유자재로 들어 가지고 저렇게 놓을
0:11
수도 있는 섬사 동작이 구현이
0:12
가능하거든요 이게 왜
0:16
어려울까요네 여러분 반갑습니다 안대
0:18
공학 에러입니다 테슬라에서 옵티머스
0:21
젠 2를 발표했습니다 그동안
0:23
프로토타입을 발표하고 젠 1을 발표한
0:25
다음에 이렇게나 빠른 시간에 젠 2를
0:27
보였는데요 일단 외관부터 상당히 많이
0:29
달라졌고 움직임도 장난이 아니거든요
0:31
거기다가 섬세한 동작까지 상당히 많은
0:34
진보가 있었으니까 지금 영상에 나오면
0:36
저렇게 간단간단하게 나오는데 저
0:37
각각에 대한 의미가 어떤 것인지 어떤
0:39
기술이 들어갔는지 어떤 원리인지 한번
0:41
살펴보면서 파악해 보는 시간
0:43
가져보도록 하겠습니다 일단 외관부터
0:44
저렇게 하얗게 변한 부분도 그렇고
0:47
뭔가이 깔끔해진 느낌이 들지 않습니까
0:49
그전에는 뭐라도 포장해 주고 뭔가
0:50
입혀 줘야 될 것 같은 느낌이었는데
0:52
지금 뭔가 이제 완제품 같은 느낌으로
0:54
싹 나왔어요 일단 몸통이나 팔 다리
0:56
두께가 어느 정도 사람과 비슷한
0:58
수준으로 돼 있고 저 움직임 보세요
0:59
진짜 자연스럽지 않습니까 손가락
1:01
움직임도 그렇고 몸을 이렇게 약간
1:02
약간 흔들어가면서 스테빌라이저 하는
1:04
부분 요런 것도 굉장히 눈여겨 볼
1:06
만한 부분입니다 이런게 가능해졌다는
1:08
거는 결국은 액츄에이터 뿐만이 아니라
1:10
다양한 어떤 부품들이 작게 만들어서
1:13
구동을 할 수 있을 정도로 기술력이
1:14
높아졌다고 평가할 수 있는 부분이
1:15
있고요 거기다가 얼굴에 이렇게
1:17
신기하게 LED 아이언맨 마스크처럼
1:18
LED 이렇게 딱 들어가 있는데 저게
1:20
실제로 사람이 들어가 있는게
1:21
아니잖아요 저는 LED이기 때문에
1:23
ledm 뭔가 신호를 쏘아주고 바깥에
1:26
있는 사람들도 로봇의 상태라던가
1:27
충전이 필요해요 이렇게 얘기를
1:29
한다거나여 여러 가지 그러한
1:30
커뮤니케이션 용으로 사용되지 않을까
1:32
싶어요 지금 보시다시피 이렇게 저
1:33
움직이는 속도가 조금 더 빨라졌는데
1:35
30% 더 빨라진 거거든요 그래도
1:37
너무 느리다고 느껴질 수도 있는데
1:39
사실 그냥 속도만을 보면은 우리가
1:41
이동하면서 하는 작업 있죠 예를 들어
1:42
짐을 든다거나 뭔가 절로 가야
1:44
된다거나 그 속도 자체가 30%
1:45
빨라지기 때문에 이동에 한해는 그만큼
1:48
생산성이 높아졌다고 볼 수가 있는
1:50
부분도 되겠습니다 거기다가 무게는
1:51
10km 나 감소가 되었는데요 성능을
1:54
그대로 유지를 하면서 오히려 더
1:55
발전이 되면서도 몸무게가 줄어들었기
1:57
때문에 저렇게 빠르게 구동을 한다거나
1:59
아니면은 배터리를 를 더 오래 쓸 수
2:00
있는 그러한 관점이 있을 것으로
2:01
보입니다 제가 테슬라 볼 설명할
2:03
때마다 말씀드리는 거 같은데 테슬라는
2:05
결국은 양산을 해서 단가를 낮추고
2:07
원가를 절감해서 빠르게 보급하려는
2:09
목표를 갖고 있잖아요이 로봇을 만들
2:11
때에도 다양한 액츄에이터 관절이 관절
2:13
관절에 들어가는이 구동기의 필요한
2:14
상황인데 얘네를 딱 여섯 개만
2:16
만들었습니다 롤피치이 세 축에 대해서
2:19
각각이 어느 정도로 움직이느냐 그
2:20
전부 다 분석해 갖고 각자가 비슷한
2:23
거를 하나의 그룹으로 묻고 또
2:24
선형으로 할지 회전으로 할지 이런
2:26
것들을 해가지고 총 여섯 개로만 딱
2:27
액트를 정했어요 지금 보시는 요런 거
2:29
그래서 각각이 어느 정도 무게가
2:31
되는지 얼마만큼의 힘을 구동할 수
2:32
있는지를 정해 놓고 요거를 하나의
2:34
로봇을 만들 때이 여섯 가지 종류만
2:36
써서 만든 겁니다 그래서 최대한
2:37
부품수를 줄여 가지고 양산화 가능성이
2:40
높아지도록 설계를 한 것이죠 자세히
2:42
보니까 저 목을 자유자로 좀
2:44
움직이더라고요 좌우로도 움직이지만 또
2:45
끄덕끄덕도 하고이 위로 위로 하잖아요
2:47
저게 이제 자유도가 2다 해서
2:49
2dof 디그리 오브 프리이고
2:51
부르는데 원래 디그리 오브 프리덤이은
2:53
이제 상하 자우가 다 되니까이 앞쪽에
2:55
있는 모든 방위에 대해서 다 인지가
2:57
가능하잖아요 그래서 일단 적어도이
2:58
비전 처를 통해서 움직이는
3:04
옵티머스기능 확보가 될 수 있고 시야
3:06
가까지 충분히 넓게 가져갈 수
3:08
있다라고 보시면 될 것 같아요 이게
3:09
회전하는 정도에 따라서 거의 180도
3:11
이상까지도 볼 수가 있겠죠 이런 비전
3:13
처리용 로봇이라 그가 자율주행 차도
3:15
마찬가지지만 우리 사람도 그러지
3:17
않습니까 농구할 때도이 시야가 좋아야
3:18
빠르게 속공고 빠르게 이게 패스하고
3:20
페이크 쓰고 이렇게 하듯이 로봇도이
3:22
시야가 그 외에 대한 거를 정보를
3:24
추정을 할 수가 없잖아요 갑자기 뭐가
3:26
날아올 수도 있고 결국 시야각이
3:27
중요한 건데 자이도 두 개의 목을
3:29
구성하 으로써 인간처럼 좀 더
3:30
인간스러운 수 있는 거를 구동했다
3:32
보시면 되겠고요 그리고 로봇 입장에서
3:34
보면은 자기 주변에 있는 것도 충분히
3:36
다 볼 수가 있겠죠 디오 프리덤이 한
3:38
개면 그냥 이렇게 위아래로만 본다든가
3:39
아니면 좌우로만 보는데 자기 몸을
3:41
충분히 보면서 내가 뭘 들었는지 내
3:43
몸에 어떤 상태 변화가 있는지 이런
3:45
것도 파악할 수가 있다는 것이
3:46
되겠습니다 가장 하이라이트라고 보는
3:48
부분이 바로 지금 보시는 저 손가락
3:50
움직임 저 진짜 완전 인간이지
3:52
않습니까 11개의 자유도를 가진
3:54
손이다고 얘기를 하고 있는데 지금
3:55
보시는 것처럼 계란을 자유자재로 들어
3:57
가지고 저렇게 놓을 수도 있는 섬세한
3:59
동작이 구현이 가능하거든요 이게 왜
4:01
어려울까요 원래 로봇 매니퓰레이터가
4:03
저렇게 끝으로 해 가지고 뭔가
4:04
움직여서 말단에 특정 부분을 딱
4:06
누르려고 하면은이 모터가 딱 고정해
4:08
가지고 끝부분에 이제 압력에 따라서
4:10
이게 밀릴 수도 있고 안 밀린다
4:12
하더라도 꽉 지었다가 액트가 살짝
4:14
풀려 가지고 놓을 수도 있고
4:15
그렇거든요 그런데 계란같이 섬세한
4:17
거를 집어 가지고 할 수 있다는 거는
4:19
그 미세한 조정까지 같이 되었다라고
4:20
이해를 하시면 되겠습니다 특히 저렇게
4:22
계란을 잡을 때 저 촉각 센서가 있어
4:24
가지고 각
4:28
핑거마우스 정보를 갖고 있겠죠 단순히
4:30
매니퓰레이터를 움직여 가지고 집는
4:32
것이 아니라 각각의 이미지 압력
4:34
센서까지 가져와서 처리를 한다 원래
4:36
AI 데에서 발표를 할 때이
4:38
덱스트러스 손을 이용한 어떤 움직임에
4:40
대해서 상당히 집중을 하는 모습을
4:42
보여 주었는데요 지금 마디를 보면은이
4:44
손가락에 보면 우리는 보통 이게 하나
4:46
둘 세
4:51
마디지터 하나 둘 셋 세 개로 구성되
4:54
있죠 그러니까 11개의 디그리 오브
4:56
프리덤을 갖고 있다라고 돼 있는 거죠
4:57
그러니까 엄지 손가락에는 충분히 세
4:59
네개의 축을 가지고 있어 가지고
5:01
나머지네 개와 어느 정도 덱스트로스
5:03
손의 움직임을 간단하게 하기 위해서
5:05
구현한다는 거죠이 다섯 개를 다
5:06
구현하면 좋겠지만 그만큼 복잡해지고
5:08
AI 차적 화도 많이 걸릴 뿐더러 또
5:10
양산하는데 이런 거 다 이제 돈이지
5:11
않습니까 이런 걸 줄이고 싶다라는
5:13
거죠 그래서 각각의 손가락을 메탈로
5:15
만들어진이 힘줄로 이렇게 다 연결을
5:16
해 놓고 걔네들이 유연하게 움직일 수
5:18
있도록 구동을 하는 것이 되겠죠 제가
5:19
학교에서 공부할 때는 이거 전부 다
5:21
뭐 키네마틱 뭐 행렬 곱해 가지고
5:23
다음에 어떡하지 가고 이런 거 다
5:24
했었거든요 그렇게 막 계산해서
5:26
컴퓨팅에서 하는 것이 아니라 각각이
5:27
어떻게 움직였을 때를 AI 로 사람이
5:30
최대한 학습한 대로 움직이게끔
5:31
하니까이 섬세함이 움직이는 거죠 근데
5:33
그게 되려고 하면은 AI 아무리
5:35
프로그래밍 했다 하더라도 그 입력에
5:36
대해서 로봇이 정확히 표현을 해 줘야
5:38
되거든요 예를 들어 계란을 잡았는데
5:40
너무 세게지면 안 되잖아요 그럼 살살
5:41
집어야 되는데 방금 것이이 모니터에서
5:43
저 파란색 기어 있는 저 클러치 핑거
5:45
드라이브라고 돼 있는 부분 요거는
5:46
테슬라에서도 직접 꼭 집어서 얘기를
5:48
했어요 특별한 기어다 계란 같은 거를
5:50
잘 짓기 위한 건데 어떻게 됐느냐
5:51
테슬라에서 이걸 얘기할 때 넘 백
5:53
드라이버 블 핑거 드라이브라고
5:55
얘기했어요요 가운데에 여기요 기어
5:57
뒤에고 보이죠 이렇게 위로 올라가면서
5:58
윙 돌아가면이 기어에 맞물려 가지고
6:00
얘가 돌아가는 형태예요 그럼 손가락이
6:02
움직이는데 계란을 집었다 그래고
6:04
치면은 집은 다음에이 기어 끼리는요
6:06
기어 갭과 갭 사이에 유격이 있기
6:08
때문에 약간 벌러지 수가 있단 말이죠
6:10
그럼 계란을 꽉 집었다 하더라도 살짝
6:12
이렇게 풀릴 수도 있어요 꽉 잡고
6:13
있다가 이렇게 약간 풀릴 수도 있다는
6:15
거예요 근데 쟤는 반대쪽 기어가
6:16
역회전을 하려고 하면은요 뒤에 있는
6:18
요게 꽉 잡아 주니까 백 드라이브가
6:20
안 된다는 거예요 그러니까 특별한
6:22
전력을 구동하지 않고도 얘가 버틸 수
6:24
있으니까 전력도 아끼고 확실히 계란
6:26
같은 것도 살 잘 잡고 이런 걸 할
6:27
수가 있다는 거죠 머리 잘 썼죠
6:29
거기다가 이런 스쿼트 하는 거 이런
6:30
쓸데없는 거 왜 넣었냐고 하는데
6:32
요거는 로봇 자체의 안정성을 보여
6:34
주는 거죠 특별한 움직임에서 얘네들이
6:36
스테빌라이저를 얼마나 잘하느냐
6:37
그러니까 애매한 환경에서도 잘 구동을
6:39
할 수 있다는 걸 보여 주려고 하는
6:40
것이 되겠고 그렇게 보면은 작년에
6:42
나왔던 저거 보면은 온갖 그 전성과
6:44
막 와이어 하네스랑 막 다 엉켜
6:45
가지고 얘네들 딱 이제 잘 세우려고
6:47
막 노력하는 이런 모습들을 볼 수가
6:49
있는데 저런 것도 없이 스스로 이렇게
6:51
잘 움직여서 스태빌라이저 안정화 할
6:53
수 있도록 한다라는게 상당히 놀라운
6:55
발전입니다 거기다가 발 부분도 좀 잘
6:57
보시면 좋을 것 같은데 잠깐 멈춰
6:58
볼까요 발을 디일 때의 힘과 토크를
7:00
센싱하는 발가락 관절 섹션도 있고
7:03
인간이 움직이는 거를 그대로 따라
7:05
있다라고 하는데 요게 왜냐면은 앞에서
7:07
먼저 다렸다가 뒤로 풀리는 요런 거
7:09
방 보셨습니까 발 잡으세요 어 마치
7:11
인간이 걷는 거를 그대로 학습을 한
7:12
거 같아요 저렇게 움직이는게
7:14
안정적이라고 보고 저렇게 학습을 한
7:15
것으로 보이고요 특히이 액츄에이터
7:17
같은 경우에는 알통에 있어 알통에
7:19
알통에 이렇게 액츄에이터를 넣어
7:20
놨는데 이렇게 되면 아무래도 공간
7:21
세이빙이 되죠 기본적으로 액츄에이터를
7:23
안쪽에 넣으면서 나중에 이거를 바깥에
7:25
이게 싸게 되면은 외부 환경에서도
7:27
뭔가 이렇게 막 흑 먼지 날리고 뭐
7:29
물지만은 그런 데서도 잘 동작하도록
7:31
염두를 해두고 하지 않았을까라고
7:33
추정할 수 있는 부분들이 있겠습니다
7:34
거기다 처음에 저게 신발을 신었는지
7:36
안 신었는지 모르겠는데 신발 신긴 거
7:38
같죠 신발을 신길 수 있도록의 모양을
7:40
만들어 놨다 이또 신발 바뀌었잖아
7:41
그러니까 뭔가 특정한 지형에서 잘
7:43
움직일 수 있도록 특정한 신발이
7:45
필요할 수도 있을 거고 할 때
7:46
그거까지 고려를 해서 사람 신발을
7:47
그대로 꽂아줄 수 있도록 요렇게
7:49
구성하지 않았나 싶습니다 이렇게
7:50
테슬라 봇 옵티머스가 제너레이션
7:52
2까지 나온 상황이면 요거로 실제로
7:54
어디에 쓸 수 있을까를 고민을 하게
7:56
될 거잖아요 아무래도 자율주행차는
7:57
조금 더 걸리지 않을까 왜냐면 면은
7:59
결국 안정과 관련되어 있고 어떤
8:01
상황이 버릴지 모르는 더만 데이터를
8:03
학습해야 된다라고 보는 견해가 더
8:04
많죠 그런데 이런 옵티머스 같은
8:06
경우에는 테슬라의 기가 팩토리에 바로
8:08
넣어 가지고 특정한 반복 노동을
8:09
시킨다거나 아니면 사람이 들어가서
8:11
하기 힘든 것들을 좀 해 준다거나
8:12
이런 것들을 바로 투입을 한다는
8:14
측면에서 봤을 때는 다율 주행보다는
8:16
조금 더 쉽지 않을까라고 추측할 수
8:18
있는 부분이 되겠죠 이미 저런 섬세한
8:19
부분을 해결하고 있기 때문에 그냥
8:21
사람 대신에 저걸 넣는 거예요 그냥
8:22
그리고 계속 충전시키면서 계속 쓰는
8:23
거야 그러면 일단은 원가를 얼마 없이
8:25
하게 아낄 수 있고 이렇게 되면
8:27
테슬라 봇 자체도 그렇고 테슬라
8:29
차량까지 원가 절감을 할 수가
8:30
있다라는 것이 되겠죠 fcd 버전
8:32
12에서 일론 머스크가 그런 얘기를
8:34
했었죠 엔드 투 엔드로 학습을 시켰다
8:36
운전을 하다가 속도 방지턱이 나오면은
8:38
거기서 속도를 줄여라고 프로그램밍
8:40
한게 아니라 처음부터 끝까지 모든
8:41
거를 통째로 끝에서 끝까지 모든 거를
8:44
다 비전 처리한 다음에 거기에 대해서
8:45
학습한 것들을 계속 데이터를 때려
8:47
넣어 가지고 통합적으로 구동할 수
8:49
있도록 했다고 했는데요 테슬라
8:50
옵티머스 같은 경우에도이 엔드 투
8:51
엔드로 학습을함으로써 각각의이
8:53
액추에이터 그이 어떻게 움직여야 할지
8:55
거기서 센서 데이터가 특정하게 저렇게
8:56
들어왔을 때 어떤 압력으로 어떻게
8:58
처리를 해야 되 될지 어떤 모양으로
8:59
해야 될지 손가락까지 이렇게 딱 들고
9:01
있지 않습니까 저런 것들을
9:02
사람으로부터 학습을 해서 특정
9:04
명령에서 수행을 한 것보다는 비전을
9:06
보고 거기에 대해서 처리를 해서
9:08
행동을 수행하는 이러한 방식으로 지금
9:09
충도 추지 않습니까 저렇게 아 이게
9:11
신나요 막 아직 클러빙 하기에는 조금
9:12
아쉽지만 그래도 저번에 비에서는
9:14
얼마나 자연스럽게 변하지 않습니까
9:16
이번 발표도 갑자기 뚝 튀어나 가지고
9:18
짧은 클립을 통해서 소개를 했지만
9:20
사실 놀라야 할 부분은 바로 여기라고
9:21
봐요 처음에 나왔을 때가 2022년
9:23
9월에 저런 모양으로 나왔거든요 사실
9:25
그 더 전에는 막 움직이면서 막
9:26
춤추면서 사람이 그런 거 나왔는데
9:28
옵티머스 젠 1 이 올해 3월에
9:30
나왔습니다 그리고 9개월 만에 다시
9:32
이렇게나 발전된 형태가 나왔다라는
9:33
거죠 그 말은 실제로 더 연구되고
9:35
있는 테슬라 안에서는 훨씬 더 개선된
9:37
버전에 뭔가가 있다라는게 되겠죠
9:38
왜냐면은 양상과 함께 고려해서
9:40
퍼포먼스까지 지켜내야 되기 때문에
9:42
요러 부분에 대해서 테슬라가 상당히
9:43
빠르게 발전되는이 델타가 크다는 거죠
9:46
그럼 앞으로 얼마나 발전될까 정말
9:47
크게 기대할 수 있는 부분이지
9:49
않겠습니까 테슬라의 fsd이 기술의
9:51
발전을 통해서 이렇게 로보틱스가
9:54
빠르게 발전할 수 있다라는 것이
9:55
우리가 정말로 놀라야 할 부분이고요
9:57
실제로 로보틱스 한는 친구들이라 그가
9:59
전자공학 한 친구들은 요거 보면은
10:00
진짜 너무 놀라워요 이게 어떻게
10:02
이렇게 빨리 만들었지 원래 하던
10:03
사람들이 아니잖아 물론 기술자들 다
10:05
데고 왔겠지만도 AI 이렇게 학습을
10:07
해서 원가 절감으로 이렇게 구동기 막
10:09
몇 개만 해 가지고 막 머리를 짜내면
10:11
저런 결과가 이렇게 빠르게 나올 수
10:12
있구나라고 보이는 부분이 되겠습니다네
10:15
그래서 오늘 테슬라 옵티머스 젠 2에
10:17
대해서 빠르게 요약을 한번 해
10:18
보았는데요 일단 그냥 봐도 너무
10:19
재밌고 신기하고 놀라운 부분들이
10:21
있지만 각각에 대한 요소들이 얼마나
10:23
큰 의미를 가지는지 그리고 테슬라가
10:25
처음에 예고를 했던 것처럼 그거를 잘
10:27
만들었다는 것에 의미가 있고요 섬세한
10:29
동작이 중요한 거는 인간을 따라하기
10:30
위해서죠 인간을 잘 따라하기 위한
10:32
기술로드 맵처럼 잘 따라가고 있는
10:34
것으로 보입니다 일런 머스크가 처음에
10:35
쫄쫄이 어을 있고 인간이 춤을 출
10:37
때는 뭐 저런 게다 있 하고 조롱을
10:39
받았지만 2년 만에 이렇게 빠르게
10:40
발지 않는 로봇을 보니 가슴속에
10:42
뜨거움이 차오르면서 어마무시한
10:44
벅차오름을 느끼고 있는 안대 공화

 

 

내 눈을 의심했다…👀 새로운 종족의 등장.. 테슬라 옵티머스 Gen 2

 

안녕하세요. 리스펙입니다. 저는 구조적으로 장기적 우상향이 담보된 자산과 행위에 집중하며 비트코인(B), 테슬라(T), 서울부동산(S)에 모두 투자하는 토탈인베스터입니다. 다른 사람의 손끝에 자신의 운명을 올리지 않고 투자를 통해 주도적 삶을 사는 사업가 마인드를 갖춘 장기투자자입니다. ✍️ 리스펙 블로그에서 다양한 글 보기 https://blog.naver.com/respect2030

💬 리스펙 트위터에서 소통하기 https://twitter.com/respect_invest

 

X의 리스펙님(@Respect_Invest)

장기적 우상향 구조가 담보된 자산과 행위에 집중하며 부동산, 테슬라, 비트코인에 모두 투자하는 토탈인베스터 / 다른 사람의 손끝에 자신의 운명을 올리지 않고 투자를 통해 주도적 삶을 사는

twitter.com

 

728x90
반응형
LIST