로봇 인간을 공격할까?

로봇이 과연 인간을 공격할 수 있을까? 라는 질문에 대해 이야기해 보겠습니다. 현재 챗 GPT 때문에 스스로 생각하는 알고리즘으로 인해 많은 분들이 미래 로봇이 사람을 공격하지 않을까 라는 불안감을 가지고 있습니다. 물론 잘못된 생각을 가진 사람이 코딩을 하면 그렇게 될 수도 있습니다.

 

 

알고리즘과 인간

로봇이 인간을 공격한다는 것은 커 로봇에게 인간을 공격하라고 명령을 내리는 사람이 있어야 가능합니다. 또는 폭력적인 알고리즘을 훈련시키고 많은 데이터를 넣어 주면 폭력적으로 행동하는 로봇을 만들 수도 있습니다.

 

그러나 일을 뒤집어 생각해 보면 폭력적인 로봇이 만들어질 경우 폭력적인 로봇을 제어하는 또 다른 로봇도 함께 만들어질 것입니다.

 

로봇과 사람
로봇과 사람

 

현재도 전쟁에 활용되는 로봇들이 있습니다. 이것들의 특징은 인간이 조정하기 때문에 어느 정도 컨트롤이 가능하다는 것입니다. 그러나 이런 것들이 완전한 자기 생각을 가진 알고리즘으로 만들어지면 그때 문제가 발생하겠죠.

 

그런데 우리가 한 가지 착각하는 것은 스스로 생각하는 알고리즘으로 로봇을 만든다 할지라도 이 로봇은 철저하게 인간과 다르게 생각한다는 부분에서 단순한 알고리즘 로봇이라고 밖에 표현할 수 없습니다.

 

로봇이 인간처럼 창의적으로 생각하고 창의적으로 행동할 수 있는 부분은 없다고 봐도 됩니다. 물론 어느 정도 창작이나 또는 자기 생각처럼 말을 하는 것은 단순한 모방에 의한 그리고 알고리즘의 의한 결과물을 만들어 내는 것뿐입니다.

 

로봇들은 인간의 행동을 바탕으로 학습하고 그 알고리즘을 이용하기 때문에 우리가 생각하는 것처럼 돌발적인 행동 또는 갑작스럽게 폭력을 휘두르는 일은 없습니다. 앞에서 말씀드렸듯이 폭력적인 알고리즘을 인간이 로봇에게 주입해 주지 않는 이상 스스로 폭력성을 보이지는 않는다는 것입니다.

 

인간이 문제

결론적으로 말씀드리면 로봇이 인간을 공격하는 문제는 인간 스스로에게 있는 것입니다. 인간이 알고리즘을 어떻게 만들고 그 알고리즘으로 로봇에게 잘못된 교육을 시키면 폭력적인 로봇이 만들어질 수도 있습니다 그러나 일반적인 로봇이 오류를 일으켜 갑자기 변화하게 되어 인간을 공격할 수는 없다고 봐도 됩니다.

 

알고리즘이란 인간처럼 생각할 수 있고 인간이 보다 편리하게 살기 위해서 만들어내는 하나의 도구입니다. 이런 도구를 잘 못 활용하는 사람이 분명 있을 것이며 그로 인해 불안감이 조성될 수도 있는데, 그렇다고 알고리즘이 인간을 파괴하는 결정적인 역할을 하지는 못할 것입니다.

 

가장 확실한 이유가 또 있습니다. 이런 스스로 생각하는 알고리즘을 만들어내는 머신러닝 및 딥러닝 하는데, 비용이 무척 많이 들기 때문에 천문학적인 무지막지한 비용을 써가면서 인간을 파괴하는 알고리즘을 만들어 낼 사람이나 기업은 없을 것입니다. 단순한 코딩 몇 개로 인간을 공격하는 로봇을 만들어 내지는 못한다는 말입니다.