1.ReceptiveField를 확장시킨 models 1.1DeepLabv2 DilatedNet에서 영감을받아 앞부분 encoder는 같지만 decoder부분에서 4개의 가지를 만들어 sum을 사용해 변화를줌 rate가 큰 부분은 큰 오브젝트를 잘 포착해 내기위해 사용 FC6,7,8부분을 해당 논문에서 ASPP라고 부름 각 Conv block마다 실행해주는 것들이 다르지만 공통적으로 size를 맞춰준다 ex) conv3_block conv3_block은 4개의 sub block으로 구성되어 있고, 같은 conv3_block의 sub block 4개도 다르게 구성되어있는 block이 존재한다 1.2PSPNet PSPNet은 다음 세가지 문제점을 제기하며 등장했다. 1) MismatchedRelationsh..
우리가 사용하는 자연어를 컴퓨터가 알아듣게 하려면 word embedding이라는 작업이 필요합니다. word embedding에는 여러가지 시도가 있어왔고 2017년부터 Transformer라는 방법을 기반으로 하고있습니다. Transformer Transformer에 대해 간단하게 설명하겠습니다. 기존에 많이 사용되던 Word2Vec과의 차이점은 output으로 나오는 벡터값이 단어냐 문장이냐 입니다. Word2Vec은 단어에 대한 벡터값이 나오고 Transformer는 문장에 대한 벡터값이 나오게됩니다. 그렇기때문에 Transformer는 문장 맥락에 대한 이해가 가능합니다. 하지만 속도가 느리다는 단점이 존재합니다. 이미지 출처: https://wikidocs.net/31379 Transforme..