Tesseractよりも速く、高精度で、CPU負荷は小さく(つまりバッテリー消費も少なく)、メモリも食わない、と良いことづくめ。 READMEに書いてありますが、Connected-component labelingという手法を用いているそうです。 First, SwiftOCR binarizes the input image. Afterwards it extracts the characters of the image using a technique called Connected-component labeling. Finally the seperated characters get converted into numbers which then get feed into the neural network. 別の作業をしていてたまたま見つけたのです
