Podobnie jak swego czasu ogłoszono koniec historii, tak i w poligrafii pojawiały się niekiedy opinie o rychłym zmierzchu słowa drukowanego. Inwazja mediów elektronicznych wydawała się potwierdzać te przypuszczenia, jednak – jak to zwykle bywa – nadmierne uproszczenia i dostrzeganie tylko jednej strony zjawiska prowadzi do całkowicie fałszywych wniosków. Z drugiej strony można się upierać, że skoro istotą poligrafii jest powielanie informacji, to można do niej zaliczyć i media elektroniczne. Tymczasem po prostu nowe narzędzia są wykorzystywane i adaptowane do zastosowań, których często nawet nie przewidzieli ich autorzy. Elektroniczne przetwarzanie danych daje przy tym niespotykaną dotychczas elastyczność, wystarczającą do zastosowania w każdej dziedzinie techniki.
W poligrafii przetwarzanie danych nie oznacza bynajmniej tylko przygotowania materiału do druku bądź sterowania procesami produkcyjnymi, co jest najczęstszym skojarzeniem. Do mniej oczywistych zastosowań zaliczyć można również między innymi:
- wykorzystanie analizy obrazu w kontroli jakości,
- zautomatyzowaną korekcję i przetwarzanie obrazów,
- modelowanie wyrobów finalnych, głównie opakowań,
- synchroniczną publikację tych samych materiałów za pośrednictwem różnych mediów, np. druku i internetu.
Analiza obrazu jest tu zresztą zastosowaniem wcale nie nowym, jeżeli wziąć pod uwagę również tak proste systemy jak układy automatycznej kontroli pasowania. Tymczasem da się uzyskać o wiele więcej. Zadrukowany obraz można analitycznie przedstawić jako pewien dwuwymiarowy sygnał niosący informację o barwie lub gęstości optycznej we współrzędnych określających położenie na zadrukowanym arkuszu. Jeżeli więc określony zostanie pewien odpowiednio dobrany i stały wzór dołączonych do drukowanej pracy pól kontrolnych, wszelkie wady drukowania będą mogły zostać zidentyfikowane jako odchylenia od prawidłowego wzorca. Tak zresztą działają tradycyjne paski kontrolne, oceniane przez drukarza. Drukarz nie oceni jednak precyzyjnie wszystkiego, tymczasem drobne nawet odchylenia można potraktować na przykład jako szum, a następnie numerycznie określać skalę występowania wady przez obliczenie stosunku wielkości tego szumu do wielkości właściwego sygnału. Zrozumienie, jak to jest możliwe, a co ważniejsze, jak takie podejście wykorzystać w praktyce wymaga na początek odrobiny zupełnie niegroźnej teorii. Najczęściej powyższe równanie opisuje sygnał o amplitudzie A będący jednowymiarową funkcją czasu, jednakże sygnałem może być równie dobrze np. statyczny obraz, scharakteryzowany dwuwymiarową funkcją współrzędnych położenia, a to właśnie jest potrzebne dla zastosowań poligraficznych. Ponieważ jednak otrzymanie cyfrowej postaci obrazu wymaga przedstawienia go w postaci zbioru punktów, otrzymany sygnał obrazu jest funkcją dyskretną.
W przypadku, gdy funkcja f(t) jest okresowa, za pomocą przekształcenia Fouriera można rozwinąć ją do szeregu trygonometrycznego. Oznacza to po prostu, że każdy sygnał okresowy da się przedstawić jako suma sygnałów sinusoidalnych. Szczególne znaczenie mają tu współczynniki powyższego rozwinięcia, tworzą one bowiem tak zwane widmo sygnału. Z pewnym uproszczeniem można z kolei powiedzieć, że widmo sygnału niesie informację o tym, jaki jest rozkład szybkości zmian tego sygnału. W przypadku obrazów niestety sygnały je reprezentujące w zasadzie nigdy nie są okresowe. Jak się okazuje, ich widmo nadal można wyznaczyć za pomocą przekształcenia zwanego transformatą Fouriera. Dla sygnałów dyskretnych, takich jak punkty obrazu cyfrowego, możliwe jest rozwinięcie w szereg według wzoru. gdzie N oznacza liczbę niezerowych próbek sygnału, natomiast F(k) jest wspomnianą transformatą Fouriera, której wartości można oczywiście obliczyć i przy zastosowaniu metod numerycznych jest to nawet niespecjalnie kłopotliwe. Ponieważ obrazy są dwuwymiarowe, zależności przyjęte do obliczeń muszą być wersją uogólnioną do funkcji dwóch zmiennych. Powstaje w tym miejscu pytanie, czy takie obliczenia są rzeczywiście konieczne i czy nie wprowadzają nadmiernej komplikacji w stosunku do potencjalnego przeznaczenia? Chwila zastanowienia może doprowadzić do interesującego i bardzo użytecznego uproszczenia, bazującego na pojęciu widma sygnału. Otóż sygnał rzeczywisty wskutek oddziaływań zewnętrznych może ulec zniekształceniu. W świecie poligrafii sygnałem takim może być na przykład gęstość optyczna naniesionej farby, a zniekształceniem nierównomierne kładzenie farby, powiększenie punktów rastrowych itp. Zgodnie z teorią, wskutek zniekształceń w rozwinięciu sygnału w szereg pojawiają się dodatkowe elementy, odpowiadające powstałym zaburzeniom. Dobrze to widać w graficznej reprezentacji widma przyjmującej postać prążków, których liczba i położenie zależą od rodzaju i wielkości zniekształceń. W przypadku prostych sygnałów miarodajnej informacji o wielkości zniekształceń może dostarczyć współczynnik zniekształceń nieliniowych, zwykle definiowany jako zależność: gdzie S oznacza amplitudę sygnału, a amplitudy składników reprezentujących zniekształcenia. Obraz, z którym możemy mieć do czynienia, to na przykład zeskanowana próbka wydruku z maszyny drukującej, którą można przedstawić jako sygnał dyskretny w postaci dwuwymiarowej funkcji jasności lub gęstości optycznej. Jest to typowa cyfrowa reprezentacja obrazu, utworzonego jako macierz punktów oddalonych od siebie o i, j, których wielkości gęstości optycznej są skwantyzowane do n różnych wartości różniących się o D. Pomimo pozornego podobieństwa nie oznacza to bynajmniej obrazu zrastrowanego. Struktura rastra mogłaby być dodatkowo zdefiniowana na bazie punktów opisanych wyżej i jak się okazuje, nie musi to mieć w tym miejscu istotnego znaczenia. Najbardziej interesujący pomysł polega na tym, że rozwinięcie do szeregu trygonometrycznego można przy takich założeniach zastąpić wyrażeniem: w którym amplitudy kolejnych składowych szeregu harmonicznego zastąpione zostały liczebnością punktów o tej samej gęstości optycznej Di. W oparciu o powyższy wzór można zbudować histogram gęstości optycznych obrazu będący w pewnym sensie analogią widma sygnału okresowego. Ograniczony obszar obrazu o stałej wartości gęstości optycznej będzie wówczas odpowiednikiem sygnału właściwego, reprezentowanego przez pojedynczy prążek histogramu. Zakłócenia sygnału spowodowane różnymi czynnikami doprowadzą do lokalnych zmian gęstości optycznej w tym obszarze, a zatem do pojawienia się dodatkowych prążków w histogramie analogicznie do funkcji widmowej. Wynika z tego natychmiast, że kształt histogramu koreluje z wielkością zniekształceń obrazu powstałych w wyniku występowania różnego rodzaju wad. Biorąc pod uwagę, że amplitudą w tym przekształceniu jest liczebność populacji punktów o danej gęstości optycznej Di, można wprowadzić pojęcie współczynnika zniekształceń jako: Jest to technika zapożyczona wprost z elektroakustyki i umożliwia mierzenie takich parametrów jak równowaga wodno-farbowa – głównie przez identyfikację emulgowania i tonowania, zdolność przyjmowania farby przez farbę, pojawianie się mory czy zjawiska mottlingu, szczególnie dokuczliwego przy drukowaniu apli, czyli przede wszystkim w druku opakowań. Jako przykład można podać interesujące zestawienie histogramów dla dwóch próbek wykazujących różny stopień zjawiska mottlingu pokazanych na rysunkach. Jest oczywiste, że pomiary tego typu mogą znaleźć zastosowanie generalnie nie tylko do bieżącej kontroli jakości odbitek, ale również do kontroli jakości materiałów: papierów i farb, co powinno mieć znaczenie również, a może przede wszystkim, dla ich producentów. Adaptacja do konkretnych zastosowań sprowadza się w zasadzie do zaprojektowania odpowiedniego pola pomiarowego oraz wyznaczenia funkcji zniekształceń, niekoniecznie takiej, jaka została podana w przykładzie. Co więcej, metody pomiarowe wykorzystujące podobny wzorzec postępowania w zasadzie nie wymagają nowego i skomplikowanego sprzętu pomiarowego, opierać się mogą bowiem na powszechnie używanych urządzeniach skanujących i odpowiednio skonfigurowanym oprogramowaniu. Stanowi to cenną zaletę we wszystkich wdrożeniach przemysłowych, gdzie istotny jest czas potrzebny na uruchomienie systemu. Postępujący proces automatyzacji wymaga między innymi nowoczesnych i zautomatyzowanych metod przetwarzania informacji o istotnych parametrach produkcji. Poszukiwanie odpowiednich rozwiązań nie musi oznaczać konieczności dokonywania skomplikowanych odkryć. Jak to często bywa, podobne do aktualnych problemy zostały już być może gdzieś rozwiązane i często wystarczy jedynie nieco inżynierskiej inwencji, aby zaadaptować rozwiązanie dla potrzeb aktualnie wykonywanej pracy i oczywiście zawsze najważniejszego klienta.