Aktualności
Badania
23 Stycznia
Źródło: www.pixabay.com
Opublikowano: 2024-01-23

Nowatorski model audiodeskrypcji powstaje na UAM

Czy osoba niewidoma może obejrzeć komedię i śmiać się w tych samych momentach co osoba widząca? Czy może tak samo bać się podczas oglądania horroru, jak jej towarzysz bez dysfunkcji wzroku? Czy jest w stanie obejrzeć program kulinarny, a potem odtworzyć prezentowane przepisy w swojej kuchni? Na Uniwersytecie im. Adama Mickiewicza w Poznaniu powstaje model funkcjonalny audiodeskrypcji (AD), dzięki któremu odpowiedź na te pytania będzie brzmiała twierdząco.

Audiodeskrypcja to usługa dostępności, której celem jest przede wszystkim zapewnienie osobom niewidomym i słabowidzącym dostępu do treści multimodalnych (takich jak film, przedstawienie teatralne czy wydarzenie sportowe). Uznaje się ją za rodzaj przekładu, w którym obrazy zastępowane są przez słowa. Jest to jednak proces pełen wyzwań, ponieważ obrazy w złożonym tekście multimodalnym (takim jak film), które są postrzegane całościowo przez widzącego odbiorcę, muszą zostać zastąpione linearnym opisem. Opis ten powinien być na tyle zwięzły, aby zmieścić się w często krótkich przerwach między dialogami. Ponadto audiodeskrypcja musi być właściwie zintegrowana z istniejącą ścieżką dźwiękową tak, aby niewidomy odbiorca był w stanie zrozumieć opis, ale także „zobaczyć” go w oczami wyobraźni.

Dwa podstawowe pytania w audiodeskrypcji to, co i jak opisywać. Celem mojego projektu jest stworzenie nowatorskiego modelu, który uwzględnia między innymi funkcje tekstów multimodalnych, cel audiodeskrypcji w konkretnym kontekście, a także potrzeby i oczekiwania osób z niepełnosprawnością wzroku – wyjaśnia dr Iwona Mazur z Wydziału Anglistyki Uniwersytetu im. Adama Mickiewicza w Poznaniu.

Badaczka dodaje, że model, który jest zainspirowany dotychczasowymi funkcjonalnymi teoriami przekładoznawczymi, będzie z jednej strony stanowił konceptualizację teoretyczną, a z drugiej praktyczne narzędzie do określenia tego, co i jak opisywać, w zależności od typu i gatunku tekstu (np. film obyczajowy, komedia, reality show, reklama itp.). Najpierw stworzona zostanie oryginalna klasyfikacja tekstów multimodalnych, a następnie ramy dla wielowymiarowej analizy tekstu źródłowego. Powyższa analiza określi tzw. priorytety funkcjonalne w danym tekście, co z kolei wpłynie na wybór strategii audiodeskrypcyjnych.

W celu opracowania modelu przeanalizujemy wybrane koncepcje teoretyczne, dokonamy przeglądu różnych gatunków filmowych i telewizyjnych z audiodeskrypcją (w języku polskim i angielskim) oraz przetranskrybujemy wybrane ścieżki audioskrypcyjne. Następnie porównamy i poddamy krytycznej analizie szereg rozwiązań, a uzyskane wyniki uwzględnimy w opracowywanym modelu – zapowiada dr Mazur.

Model w istotny sposób ma przyczynić się do rozwoju wiedzy w obszarze audiodeskrypcji, zarówno w wymiarze teoretycznym, jak i praktycznym. Z jednej strony będzie stanowił ogólną teorię mającą zastosowanie do wszystkich typów audiodeskrypcji, a z drugiej będzie to praktyczne narzędzie w nauczaniu i praktyce audiodeskrypcji. Poszerzy on także granice przekładoznawstwa jako dyscypliny naukowej poprzez wnikliwą analizę audiodeskrypcji jako procesu tłumaczenia.

Poprzez rozpowszechnienie wyników wzrośnie świadomość społeczna udostępniania treści multimodalnych osobom z dysfunkcją wzroku, ich potrzeby będą lepiej rozumiane, stworzone zostanie także narzędzie do szkolenia przyszłych audiodeskryptorów. Zatem projekt stanowi wkład w budowę społeczeństwa integracyjnego, w którym osoby z niepełnosprawnością wzroku będą mogły w pełni angażować się w życie kulturalne i społeczne – podsumowuje dr Iwona Mazur.

MK, źródło: NCN

Dyskusja (0 komentarzy)