środa, 6 marca 2013

Algorytm predykcyjny

 Tyler McCormick z University of Washington stworzył algorytm, oparty na modelu statystycznym, który pozwalaja przewidywać przyszłe choroby, a także diagnozować. Opiera się on na osobistej historii chorób pacjenta, a także innych osób o podobnej historii medycznej. Uwzględnia on również sytuację, w której osoba leczona, nie posiada historii medycznej: korzysta z bazy danych osób, u których wystąpiły podobne objawy, w tych samych interwałach czasowych.

Powiązane tematycznie z tym obszarem są powstające i coraz bardziej popularne strony internetowe, aplikacje, pozwalające kontrolować stan swojego zdrowia. Polskim przykładem takiej strony jest: 

http://demo.zdrowychory.pl/user . 
Jest to strona o charakterze zewnętrznym, nie związanym, w żaden sposób ze służbą zdrowia. Jej działanie opiera się na osobistej ingerencji "pacjenta", którym w tym wypadku może być dowolna zarejstrowana osoba. Służy on raczej dokumentacji: przykładowo pozwala gromadzić wyniki badania pomiaru ciśnienia (osoby chore na ciśnienie, najcześciej zmuszone są, skrupulatnie zapisywać wyniki i gromadzić je, do analizy lekrza). Całość ma charakter "bazy danych". Poza danymi wprowadzanymi do systemu nie otrzymujemy poza nimi żadnych zwrotnych informacji. Oczywiście taka baza może posłużyć później lekarzowi, niemniej, jeżeli w tym celu została stworzona, pewne funkcjonalności takie jak: "śledzenie osób", czy możliwość dodawania ich do znajomych są bezużyteczne.
















    
Istnieje również możlwość wyszukania konkretnych objawów. Niestety narazie z tej możliwości nie można korzystać:" W tym miejscu wkrótce widoczne będą statystyki obrazujące doświadczenia naszych użytkowników, u których wystąpił interesujący Cię objaw. Obecnie liczba osób, które podzieliły się swoim doświadczeniem nie wystarcza do wygenerowania zestawień."  Nie zapowiada się również aby strona na podstawie własnoręcznie wpisanych objawów, była w stanie je prawidłowo interpretować i wskazywać chorobę. 


Dużo ciekawszym rozwiązaniem jest projekt, który działa na odwrotnej zasadzie. Za pomocą aplikacji informacje wprowadzane przez lekarza do systemu (na temat historii choroby, wyników badań) są prezentowane pacjentowi w sposób, który ułatwia ich zrozumienie.   Przykładem mogą być dane o poziomie cholesterolu we krwi, zamiast nic nie znaczących cyfr, możemy zobaczyć wizualizację. Również sieć połączeń pomiędzy osobami posiada w tym wypadku sens: są to osoby spokrewnione. Na podstawie własnej historii choroby i objawów otrzymujemy informację (ciekawe jak wygląda to ze strony lekarza?) czy nie posiadamy skłonności do miażdzycy. Aplikacja na urządzenia mobilne, przypomina o konieczności zażycia leku. 




Odbiorca: percepcja międzymodalna


„Aplications of new technologies should provide ways of variety of minds to gain access to knowlege.”
H.Gardner, S. Veenema: „Multimedia and multiple intelligences”

Dotychczas systemy zmysłowe postrzegano jako oddzielne od siebie. Oznacza to, że za odbiór danych przypisanych do konkretnego zmysłu odpowiedzialny jest określony obszar w mózgu. Za widzenie  np. odpowiada kora wzrokowa. Obecnie coraz więcej badań wskazuje na role interakcji międzymodalnych (cross-media interactives).
Percepcję międzymodalną określa się jako „zdolność do abstrahowania i wymiany informacji pomiędzy różnymi modalnościami zmysłowymi”. Za przykład może posłużyć powiązanie wysokiego dźwięku ze światłem o dużej jasności itd.

Interakcje między modalne związane są ze zjawiskiem tzw. superaddytywności. Polega ono na tym, że zestawienie ze sobą sygnału dzwiękowego i wzrokowego jednocześnie powoduje przetwarzanie silniejsze niż to odbywające się za pomocą jednego zmysłu. Występuje ono dosyć często w naturze: np. zestawienie obrazu tłuczącego się wazonu z jego dźwiękiem.

Istniejącą zależność przedstawia poniższe badanie. Wolontariusze przeszli szybki test w trakcie, którego poddawani byli cyklowi: dźwięk, błysk, dźwięk. Następnie powtórzono cykl wyłączając z niego błysk światła. Duża większość osób doświadczyła złudzenia wzrokowego. U tych osób zaobserwowano utrzymanie aktywności obszaru kory słuchowej.
http://www.livescience.com/1408-sight-sound-trick-brain.html
Inne tego typu badanie (Uniwersytet Południowej Kalifornii) dowiodło, że występuje połączenie pomiędzy zmysłem wzroku i zmysłem dotyku. Badanym przedstawiono dłonie dotykające różnych obiektów. Za pomocą rezonansu magnetycznego badano obszar mózgu odpowiedzialny za wrażenia dotykowe. Uzyskane w ten sposób dane analizowało specjalne oprogramowanie, które było w stanie na ich podstawie stwierdzić, który film w danym momencie był oglądany.

„(...)Co mnie niepokoi? To, że gwałtowne zmiany w mediach idą w kierunku przeciwnym ludzkiemu doświadczeniu używania wszystkich pięciu zmysłów: wzroku, słuchu, dotyku, zapachu i smaku, które służą do porozumiewania się ze światem zewnętrznym i innymi ludźmi.”
Krzysztof Lenk, “Krótkie teksty o sztuce projektowania”  

Łączenie i interpretacja informacji z różnych zmysłów jest zwyczajną własnością ludzkiego umysłu. Okazuje się jednak, że u dzieci poniżej 12 roku życia cecha ta dopiero się kształtuje. Według badania przeprowadzonego przez Marko Nardini i Denis Mareschal na University College London dzieci nie są zdolne do widzenia stereoskopowego (nie są w stanie ocenić odległości, ponieważ nie łączą obrazu pochodzącego z dwóch gałek ocznych).
http://www.ucl.ac.uk/news/news-articles/1009/10091401

Dowodzi to, że mimo pozytywów jakie otwiera przed nami współczesna technologia, należy posługiwać się nią ostrożnie, ze szczególnym uwzględnieniem użytkownika, który jest odbiorcą tworzonego przez nas komunikatu.
O ile język werbalny (dominujący w kulturze zachodniej) posiada określoną, znaną większości składnię i komunikowanie się za jego pomocą jest w znacznej części przypadków jednoznaczne, o tyle język wizualny czy też posługujący się dźwiękiem, ruchem nie podlega tak ściśle określonym regułom.

"Poznańskie forum kognitywistyczne: teksty pokonferencyjne", Zakład Logiki i Kognitywistyki UAM

Dane - odbiorca - informacja


Projektowanie informacji nie ogranicza się obecnie do wizualnej interpretacji danych, zakłada również możliwość interakcji z odbiorcą.
Information literacy czyli umiejętność rozpoznania, zlokalizowania, określenia i użycia informacji, jest ściśle związana z obsługą interfejsów. Ta wiąże się nie tylko z percepcją wzrokową, daje możliwość zaangażowania w proces poznawczy niemalże wszystkich zmysłów.
Budowanie struktur informacyjnych, w tym kontekście powinno zakładać poznanie wielozmysłowe. Daje ono możliwość szerszego spektrum dotarcia do grupy docelowej oraz ułatwienie zrozumienia treści komunikatu, co jest wynikiem występowania różnych preferowanych modalności sensorycznych.
Drogi jakimi komunikat może dotrzeć do odbiorcy są różne i w zależności od tego jakim środkiem przekazu czyli kanałem się posługujemy. U każdego człowieka jeden ze zmysłów jest zmysłem dominującym.
(...) style poznawcze opisuje się jako róźnice indywidualne w zakresie sposobu przebiegu czynności poznawczych, czyli w zakresie tego, jak postrzegamy, uczymy się i myślimy, w porównaniu z innymi ludźmi.”1
1.Cz. Nosal, Style poznawcze
N. Fleming wyróżnił sposoby przetwarzania informacji ze względu na wybrane modalności zmysłowe:
VARK:
» Visual: wzrokowy
» Aural: słuchowy
» Reading / Writing: werbalny w formie pisanej
» Kinesthetic: kinestetyczny

W takim kontekście oraz zakładać ich funkcję na samym początku procesu projektowania, w taki sposób aby dać możliwość ich maksymalnej eksploatacji.
„Obecnie wyobrażam sobie inteligencje, jako biopsychologiczny potencjał przetwarzania informacji, który można ‘aktywować’ w otoczeniu kulturowym, aby skutecznie rozwiązywać problemy lub tworzyć produkty wartościowe dla kultury...inteligencje nie są rzeczami, które można zobaczyć czy policzyć. Inteligencje są potencjałami – przypuszczalnie neurologicznymi, – które można aktywować w zależności od wartości występujących w danej kulturze, szansach dostępnych w danej kulturze oraz poszczególnych decyzjach podejmowanych przez poszczególne osoby oraz/i ich rodziny, nauczycieli oraz otoczenie.” (Gardner, 1999)

Gardner zaproponował teorię wielorakiej inteligencji, która postuluje istnienie siedmiu odrębnych zdolności:
Inteligencja językowa – umiejętność posługiwania się językiem, wzorami, symbolami, płynna mowa i dobre rozumienie tekstu
Inteligencja matematyczno – logiczna – polega na sprawnym wykonywaniu obliczeń, a także operacji na abstrakcyjnych symbolach. Wraz ze zdolnościami językowymi składa się na to, co zwykle nosi nazwę inteligencji „akademickiej”, czyli takiej, która pomaga człowiekowi w odniesieniu sukcesu w trakcie formalnej edukacji.
Inteligencja muzyczna – to umiejętność wytwarzania i rozumienia treści, których nośnikiem jest dźwięk.
Inteligencja kinestetyczna – to zdolność do rozwiązywania problemów związanych z ruchem i postawą ciała. Cechuje tancerzy, choreografów i sportowców, a także w mniejszym stopniu przeciętnych ludzi.
Inteligencja przestrzenna – to zdolność ułatwiająca orientację w przestrzeni, a także umożliwiająca wykonywanie operacji umysłowych na materiale wyobrażeniowo przestrzennym. Dzięki tej zdolności możemy „myśleć obrazami”, a nie tylko słowami i abstrakcyjnymi symbolami.
Inteligencja intrapersonalna – polega na rozumieniu samego siebie, a zwłaszcza na rozróżnianiu własnych uczuć oraz nastrojów. Umożliwia osiągnięcie wysokiego stopnia samowiedzy i mądrości.
Inteligencja interpersonalna – jest zdolnością do rozumienia relacji międzyludzkich, a także cudzych uczuć, intencji, stanów psychicznych.