Ujęcie feminizmu w ramy

5/5 - (1 vote)

Narracja z tego okresu przedstawiona przez Rosemary Salomone ukazuje ruch feministyczny głęboko podzielony przeciwko sobie. Według niej, zatwardziałe działaczki feministyczne sprzeciwiały się segregacji jakiegokolwiek rodzaju, zrażając do siebie tych, którzy uznawali, że edukacja niekoedukacyjna może nadal odgrywać rolę we wspieraniu rozwoju ­dziewcząt i kobiet. W artykule analizującym rozbieżne feministyczne spojrzenia na edukację niekoedukacyjną w tym okresie, Salomone zauważa, że „niewiele kwestii spowodowało tak ostre podziały w kurczących się szeregach naukowców, adwokatów i publicznych intelektualistów, którzy wciąż dumnie noszą sztandar „feministyczny” lub którzy przynajmniej wierzą, że kobiety muszą jeszcze wygrać ­bitwę o równe obywatelstwo”.­ Salomone ­sugeruje, że spokojne rozważania na temat ­edukacji niekoedukacyjnej zostały uniemożliwione ­przez bezkompromisowych działaczy prawnych, którzy wykorzystali  kwestii, by prowadzić wewnątrzszkolną wojnę o przyszłość ­samego feminizmu. „W szeregach feministek ideologiczne spory na temat identyczności i różnicy oraz tego, co oznacza dla kobiet osiągnięcie politycznej i społecznej równości, nieuchronnie pojawiają się, bezpośrednio lub pośrednio, w dyskusji o edukacji niekoedukacyjnej”.

Według Salomone’a skutkiem tego jest zrażenie do siebie potencjalnych sojuszników, którzy mogą być mniej sztywni ideologicznie, ale z ­pewnością są nie mniej intensywnie zaangażowani w promowanie równości płci. „Podczas gdy zorganizowane grupy kobiet, które w najbardziej widoczny sposób przemawiają w imieniu kobiet, wyraziły zdecydowany prawny i polityczny sprzeciw wobec tej koncepcji, wiele osób – w tym także dysydentów w tych samych organizacjach – poparło ją, w większości poza zasięgiem opinii publicznej”. Antagonistyczna retoryka Salomona o „opozycji” i uciszonych „dysydentach” sprawia wrażenie, że ruch feministyczny jest opanowany przez doktrynerskich tyranów­. ­Wzywając do wyjścia poza spór i znalezienia „wspólnej płaszczyzny”, Salomone żąda, by pierwszym krokiem było ­wykazanie przez ­krytyków ­edukacji ­jednopłciowej ­gotowości do „wyjścia poza ideologię”.

Czy gorzki spór, który wybuchł wśród obrońców dziewcząt i kobiet w tym okresie, można sprawiedliwie scharakteryzować jako starcie ideologicznych ekstremistów z ich bardziej wyważonymi odpowiednikami? Czy opozycja wobec inicjatyw dotyczących niekoedukacyjnych szkół publicznych ­ograniczała się, ­jak sugeruje Salomone, do tych feministek, które z zasady sprzeciwiały się idei odmiennego traktowania chłopców i dziewcząt? W odniesieniu do obu tych twierdzeń istnieją podstawy do sceptycyzmu. Jak już opisałam wcześniej, podczas gdy niektóre ­feministki w tamtym ­czasie otwarcie kwestionowały, czy oddzielne dzieci mogą być kiedykolwiek naprawdę równe, wiele innych podchodziło do debaty nie z perspektywy ideologicznej, ale raczej z perspektywy opartej na przemyślanej ­analizie rzeczywistych programów. Zbyt często jednak głosy te są marginalizowane w narracji Salomona, pomijane w analizie.

Relacja, która wybiórczo podkreśla najbardziej sporne momenty w długiej i bogatej w niuanse debacie. Ten szerszy ­kontekst debaty zostaje pominięty, kiedy Salomone zauważa z wyraźną irytacją, że „przez ponad dekadę ­Narodowa Organizacja Kobiet i Amerykańska Unia Wolności Obywatelskich (American Civil Liberties Union) szybko podejmowały działania mające na celu zatrzymanie okręgów szkolnych w miejscu na samą sugestię rozdzielenia kobiet i mężczyzn”. Jak jednak wykazałem w tym rozdziale i w poprzednim, takie przedstawienie działań NOW i ACLU jest wysoce mylące. Uczciwość z pewnością wymaga uznania, że organizacje te zostały zmobilizowane nie przez „zwykłą ­sugestię” rozdzielenia chłopców i dziewcząt w szkole, ale raczej przez zaangażowanie znacznych środków, zarówno prywatnych, jak i publicznych, w inicjatywy dotyczące jednej płci, które zostały uznane za problematyczne na podstawie dokładnego przeglądu dowodów w każdym z tych przypadków. Warto też zauważyć, że celem wnoszenia skarg prawnych nie było „zatrzymanie okręgów szkolnych w miejscu”, jak ­sugeruje­ Salomone, ­ale raczej zachęcenie lokalnych władz do wprowadzania obiecujących alternatyw edukacyjnych, ale w sposób bardziej integracyjny.

W szerszym ujęciu relacja Salomone’a tworzy zniekształcony ­obraz kwestii będących przedmiotem debat na temat edukacji niekoedukacyjnej w tym okresie, ponieważ nie uwzględnia perspektywy wielu rozważnych komentatorów, którzy niechętnie gromadzili się wokół edukacji niekoedukacyjnej jako antidotum na problemy takie jak ­uprzedzenia płciowe w ­klasie. Na przykład w wywiadzie z 1996 roku David Sad- ker uznał dowody potwierdzające korzyści płynące z edukacji niekoedukacyjnej dla dziewcząt. Ale mimo to ostrzegł: „To niebezpieczna ścieżka, po której można zacząć kroczyć. Historia uczy nas, że mniej ceniona grupa, w tym przypadku dziewczęta, będzie miała w końcu mniej środków w swojej szkole. Biorąc pod uwagę nastroje panujące w dzisiejszych czasach,

Myślę, że jest to szczególny problem”. W 1997 roku AAUW ­zwołało okrągły stół z udziałem czołowych ekspertów w dziedzinie edukacji niekoedukacyjnej, by zbadać tę kwestię; referaty zostały później opublikowane w specjalnym raporcie Separated by Sex: A Critical Look at Single-Sex Education for Girls W niewytłumaczalny sposób Salomone nie wspomina nawet o tym ważnym raporcie w swoim przeglądzie sprzecznych feministycznych perspektyw w tej kwestii, które były wówczas artykułowane. Salomone przygotowała nas na to, że możemy się spodziewać ostrych i konfliktowych wypowiedzi feministek, ale to, co znajdziemy w raporcie okrągłego stołu AAUW, z pewnością nas zaskoczy. W eseju otwierającym raport Pamela Haag, pracownica naukowa AAUW, zauważa, że jednym z ­powodów, dla których ­tak trudno jest osiągnąć konsensus w kwestii edukacji niekoedukacyjnej, jest fakt, że motywacje stojące za poparciem dla dziewczęcych ­środowisk edukacyjnych są bardzo zróżnicowane. Jak zauważa Haag, niektórzy rodzice popierają edukację niekoedukacyjną, ponieważ widzą w niej sposób na wzmocnienie pozycji swoich córek i umożliwienie im walki z nierównością płci przez całe życie. Z kolei ­inni rodzice wybierają dla swoich córek szkoły niekoedukacyjne „właśnie ze względu na ich 'tradycyjną’ misję”.

Dla Haag ­ważne jest to, że „struktura edukacji niekoedukacyjnej (…) sama w sobie nie zapewnia żadnych konkretnych rezultatów, pozytywnych czy negatywnych, ponieważ ma wiele inspiracji i form”. Biorąc pod uwagę ten fakt, Haag wzywa badaczy do skoncentrowania dalszych badań na ­zidentyfikowaniu „specyficznych praktyk i cech środowisk niekoedukacyjnych”, które przyczynią się do sukcesu uczniów, uznając jednocześnie, że nie wszystkie środowiska niekoedukacyjne są jednakowe. Konsultanci edukacyjni Patricia B. Campbell i Ellen Wahl w podobnym tonie apelują o wyjście poza powszechne, ale redukcyjne ujęcie problemu w kategoriach „za lub przeciw”­: ­Pytanie „Czy klasy niekoedukacyjne są lepsze od koedukacyjnych?” brzmi logicznie, ale nie ma sensu, jeśli nie uwzględnia tego, co dzieje się w klasach, pedagogiki i praktyk nauczycieli ani niczego o uczniach poza ich płcią.

Przedstawianie krytyczek feministycznych jako upartych ideologów sprawiło, że ich cele stały się jeszcze łatwiejsze do odrzucenia – nawet przez komentatorów, którzy sami mogliby być narażeni na zarzut wąskich horyzontów myślowych. Weźmy pod uwagę, że założyciele TYWLS współpracowali przy tej ­inicjatywie z konserwatywnym Manhattan Institute­, organizacją powszechnie znaną z promowania agresywnie prawicowego programu. A jednak, kiedy ówczesne feministki kwestionowały, czy edukacja niekoedukacyjna jest najlepszym podejściem do problemu poważnego niedoboru ­możliwości edukacyjnych w miastach takich jak Harlem, zwolennicy inicjatywy TYWLS szybko delegitymizowali opozycję, przywłaszczając sobie postępową krytykę liberalnych białych feministek jako niewystarczająco uważnych na problemy nierówności rasowych i ekonomicznych. Wykorzystując tę słabość, założycielka TYWLS Ann Tisch powiedziała: „Ci, którzy próbują nas powstrzymać, patrzą na teorie, a my patrzymy na twarze dziesiątek dzieci w wieku szkolnym, które bardzo pragną tej możliwości”.

Abstrahując od takich manewrów retorycznych, prominentne feministyczne krytyki inicjatyw niekoedukacyjnych same przyczyniły się do utraty wiarygodności, koncentrując się na kwestiach płci, nie dostrzegając przy tym powiązań z niesprawiedliwością rasową i innymi formami nierówności społecznej. W ocenie prawnika zajmującego się prawami obywatelskimi, Galena Sherwina: „Podejście krytyków do kwestii szkół niekoedukacyjnych, szersza historia rasizmu w ­ruchu feministycznym oraz potrzeba zwiększenia ­możliwości­ edukacyjnych ­w społecznościach o niskich dochodach w znacznym stopniu wyjaśniają niechęć zwolenników do popierania poglądów krytyków”­.  Niestety, nawet gdy niektórzy przeciwnicy edukacji niekoedukacyjnej starali się odnieść do polityki rasowej i klasowej, wysiłki te tylko wzmacniały wrażenie, że ­perspektywa feministyczna jest ­poważnie niedostateczna. W ­artykule z 1998 roku w Atlantic Monthly autorka Wendy Kaminer porównała tych zwolenników TYWLS, którzy potępili „elitarne feministki” za „wtrącanie się” do Wschodniego Harlemu, do południowych segregacjonistów, którzy sprzeciwiali się ­interwencji federalnych władz zajmujących się prawami obywatelskimi, które zagrażały ich sposobowi życia. Przejmując płaszcz obrońcy praw obywatelskich, Kaminer słusznie ogłosiła, że tak jak „ludzie z Północy walczyli o zniesienie prawa Jima Crowa na Południu”, tak samo „zaangażowanie w prawa obywatelskie [zakłada] odpowiedzialność za wtrącanie się­”. W tym kontekście gładka sugestia Kaminer, że dzisiejsi zwolennicy TWYLS są moralnie równi rasistowskim ­segregacjonistom z ­”oddzielnego, ale równego” Południa, potwierdza tylko podejrzenia, że samozwańczym feministkom brakuje podstawowego zrozumienia historii i obecnego stanu niesprawiedliwości rasowej w Stanach Zjednoczonych.

Tak jak Kaminer myliła się, porównując zwolenników szkoły dla dziewcząt w Harlemie do rasistów z południa, tak samo błędem Sadkersów było przedstawienie znaczenia ich badań nad uprzedzeniami płciowymi w klasie jako dowodu na to, że podczas gdy rasizm jest obecnie ­przedmiotem społecznego cenzurowania, seksizm jest nadal szeroko tolerowany. Na pierwszych stronach książki Failing at Fairness, Sadkersowie stwierdzają: „Podczas gdy zapis niesprawiedliwości rasowej znajduje się w centrum naszej świadomości narodowej, podręczniki historii wciąż nie opowiadają o głębokim seksizmie w szkole”. W wywiadzie udzielonym po ukazaniu się książki ­Myra Sadker rozwinęła to spostrzeżenie: „Najbardziej oburza mnie to, że w szkołach toleruje się uprzedzenia związane z płcią w taki sposób, w jaki nie toleruje się rasizmu i antysemityzmu”. ­Kontynuowała: „Nie mieści mi się w głowie, że możemy mieć dziewczynki idące ulicą, które ktoś nazywa 'dziwką’ lub 'suką’. Ty nie zrobiłby tego w przypadku kwestii rasowych czy religijnych, ale jest to ­dopuszczalne w ­przypadku płci. I wolno to kontynuować”. W czasie, gdy wygłaszała te komentarze, Myra Sadker prawdopodobnie nie myślała o podsycanym nienawiścią oporze, który wybuchł w tej białej, robotniczej dzielnicy Detroit, gdy mieszkańcy dowiedzieli się o planie przeniesienia Akademii Malcolma X na ich teren. Gdyby badacze i aktywiści feministyczni w tym okresie mieli takie powiązania, mogliby pracować w koalicji z potencjalnymi sojusznikami, zamiast pogłębiać podziały, które byłyby wykorzystywane przez tych, którzy mogliby zyskać na nastawieniu feminizmu przeciwko szerzej rozumianej sprawiedliwości społecznej.

Rewolucja w edukacji: filantropka Ann Rubenstein Tisch i Young Women’s Leadership School of East Harlem

5/5 - (1 vote)

Tekst opisujący działania Ann Rubenstein Tisch oraz jej zaangażowanie w stworzenie Young Women’s Leadership School of East Harlem w połowie lat 90. XX wieku ukazuje unikalne podejście do edukacji niekoedukacyjnej w publicznych szkołach. Tisch, dziennikarka radiowa i filantropka, postanowiła zmieniać życie młodych dziewcząt z mniej zamożnych środowisk poprzez zapewnienie im wysokiej jakości edukacji. Choć planowany projekt stanął w obliczu prawnych wyzwań, w tym kontrowersyjnej decyzji Sądu Najwyższego dotyczącej segregacji płciowej w edukacji, ostatecznie udało się uruchomić szkołę, która odniosła sukces w swojej misji wspierania edukacyjnych aspiracji dziewcząt z Harlemu.

W połowie lat 90. kampania na rzecz zapewnienia niekoedukacyjnej alternatywy ­dla uczniów szkół publicznych zyskała ważnego sojusznika w osobie ­filantropki Ann Rubenstein Tisch. Tisch, ­dziennikarka radiowa od dawna zainteresowana edukacją, była żoną spadkobiercy fortuny Loews Corporation i postanowiła poświęcić się w ­pełni zmienianiu życia osób mniej zamożnych. Profil Tisch w „New York Timesie” z ­1998 roku wyjaśnia, że znalazła ona swoją sprawę po tym, jak „poruszyły ją tęsknoty ubogich dziewcząt z mniejszości narodowych, które chciały osiągnąć coś więcej niż tylko urodzenie dziecka”.  Wyjaśniając swoją decyzję o założeniu szkoły dla dziewcząt w słynnej dzielnicy Harlemu w Nowym Jorku, Tisch zauważyła, że chciała „zapewnić dziewczętom znajdującym się w trudnej sytuacji ekonomicznej wysokiej jakości edukację przygotowującą do studiów, wzorowaną na najlepszych szkołach prywatnych”. Rozumowała w ten sposób: „Jeśli szkoły niekoedukacyjne są tak dobre dla zamożnych uczniów, to czyż nie wynika z tego, że będą dobre dla biednych dzieci?”.

Zadanie stworzenia zupełnie nowej szkoły średniej w dzielnicy o niskich dochodach i w centrum miasta z pewnością byłoby trudne w każdych ­okolicznościach. Jednak w przypadku Young Women’s Leadership School of East Harlem kwestionowana legalność rozdzielania uczniów według płci w szkołach publicznych stanowiła szczególne wyzwanie. Dla niedoszłych założycieli TYWLS groźba zaskarżenia była bardzo poważna, a niepewność co do możliwości realizacji planu zwiększyła się jeszcze bardziej ­po wydaniu przez Sąd Najwyższy ważnego orzeczenia dotyczącego ­edukacji ­jednopłciowej na ­kilka miesięcy przed otwarciem szkoły. 26 czerwca 1996 roku sąd ogłosił swoją decyzję w sprawie United States.

Virginia – sprawa, której początkiem było zakwestionowanie całkowicie męskich zasad przyjęć do państwowego instytutu wojskowego w Wirginii. ­Virginia Military Institute (VMI), otwarty w połowie XIX wieku, ­był jedyną publiczną uczelnią męską w tym stanie. Sąd niższej instancji odrzucił skargę na politykę rekrutacyjną szkoły wniesioną na podstawie ­klauzuli równej ­ochrony. W wyniku ­apelacji sąd czwartego okręgu zmienił decyzję i zasady przyjęć zostały uznane za niekonstytucyjne­. ­Jako środek zaradczy Virginia zaproponowała utworzenie osobnej, całkowicie żeńskiej instytucji, która miałaby się nazywać Virginia Women’s ­Institute for Leadership. Przyznając, że szkoła ta początkowo nie będzie miała takich zasobów i prestiżu, jak VMI, Virginia uzyskała jednak aprobatę sądu. Po serii apelacji sprawa została przyjęta do rozpatrzenia przez Sąd Najwyższy.

W swojej decyzji, podjętej stosunkiem głosów siedem do jednego, sędziowie orzekli, że polityka przyjęć wyłącznie mężczyzn jest niekonstytucyjna i odrzucili plan utworzenia równoległej instytucji jako nieodpowiedni, stwierdzając, że instytut kobiecy nie byłby w stanie zapewnić swoim studentom takich samych możliwości i środków, jakie mają ci, którzy uczęszczają do instytutu męskiego. VMI opierała swoją obronę polityki wyłącznie ­dla mężczyzn na twierdzeniu, że charakterystyczna ­dla szkoły ­”metoda kontradyktoryjna” szkolenia jest nieodpowiednia dla kobiet. Pisząc dla większości, sędzia Ginsburg podkreśliła, że uzasadnienie klasyfikacji ze względu na płeć „nie może opierać się na zbyt szerokich uogólnieniach dotyczących różnych talentów, zdolności lub preferencji mężczyzn i kobiet”.31 Co więcej, „uogólnienia ­dotyczące 'sposobu bycia kobiet’, szacunki dotyczące tego, co jest ­odpowiednie dla większości kobiet, nie usprawiedliwiają już odmawiania szansy kobietom, których talent i zdolności plasują je poza ­przeciętnym opisem”. W swojej opinii sędzia Ginsburg starała się potwierdzić swoje przekonanie, że istnieją „nieodłączne różnice” między mężczyznami i kobietami i że te różnice „pozostają powodem do ­świętowania”. Niemniej jednak Ginsburg jasno stwierdziła, że klasyfikacje płciowe, które opierają się na twierdzeniu o „rzekomych 'nieodłącznych różnicach'” między płciami, nie przejdą pomyślnie przez konstytucyjne kryteria.

W sierpniu 1996 roku – zaledwie kilka tygodni po orzeczeniu w sprawie United States v. Virginia – nowojorska Rada Edukacji jednogłośnie ­zatwierdziła plan otwarcia w ­następnym miesiącu ­Young Women’s Leadership ­School of East Harlem. We ­wrześniu 1996 roku ­szkoła przyjęła ­pięćdziesiąt dziewcząt z siódmej klasy. Choć w ­społeczności i w doniesieniach prasowych ­świętowano uzyskanie zgody zarządu, nad przedsięwzięciem wyraźnie zawisł ­cień sprawy United States v. Virginia. Z pewnością decyzja ta nie wprowadziła kategorycznego zakazu edukacji niekoedukacyjnej w szkołach publicznych, niemniej jednak dała do zrozumienia zwolennikom, że sądy będą uważnie analizować uzasadnienie ­polityki przyjmowania do szkół osób niekoedukacyjnych ­i że żadne rzekome uzasadnienie, niezależnie od tego, ­jak bardzo popularny jest program, nie będzie brane pod uwagę.

Zwolennicy TYWLS wiedzieli, że przetrwanie ich inicjatywy będzie zależało od jak najostrzejszego rozróżnienia między ich podejściem do edukacji niekoedukacyjnej z jednej strony, a mentalnością osób broniących polityki VMI z drugiej. Odróżnienie TYWLS od VMI nie wydawało się poważnym wyzwaniem, przynajmniej w oczach opinii publicznej. W końcu VMI próbowało bronić polityki wykluczania z elitarnych szeregów klasy historycznie upośledzonej – kobiet. Natomiast celem TYWLS było wzmocnienie dziewcząt poprzez rozszerzenie możliwości edukacyjnych, zwłaszcza tych pochodzących z najbardziej niekorzystnych środowisk. Oczywiście, kiedy sprawa jest przedstawiana w ten sposób, łatwo przeoczyć fakt, że konstytucyjne zakwestionowanie równej ochrony nie polega na prostym osądzie, czy motywy stojące za praktyką wykluczającą są łagodne, ale raczej na tym, czy ­praktyka ta ­opiera się na stereotypach dotyczących wrodzonych zdolności ­członków jednej płci w porównaniu z drugą.

Pierwszymi grupami, które wyraziły sprzeciw wobec planu TYWLS, były New York Civil Rights Coalition i New York Civil Liberties Union. Latem przed otwarciem TYWLS organizacje te wysłały listy do kanclerza szkoły, Rudy’ego Crew, wzywając go do odrzucenia planu. Kiedy rada szkoły zagłosowała za jego zatwierdzeniem, Michael Meyers z Nowojorskiej Koalicji Praw Obywatelskich ogłosił kanclerza „sługą dobroczynnego seksizmu”. Grupa złożyła skargę w Departamencie Edukacji USA, twierdząc, że „szkoła opiera się na stereotypowych poglądach na temat osobowości i zachowania dziewcząt oraz na stereotypowych poglądach na temat osobowości i zachowania chłopców” i domagając się, by szkoła niezwłocznie podjęła plany przyjęcia chłopców. Rok po złożeniu wstępnej skargi federalni urzędnicy ds. edukacji skontaktowali się z prawnikami Nowojorskiego Zarządu Edukacji i poinformowali ich o wstępnym stwierdzeniu, że TYWLS narusza prawa obywatelskie. Mimo to urzędnicy federalni postanowili nie wnosić formalnego wniosku, zachęcając lokalnych administratorów do rozważenia możliwości utworzenia w ­pobliżu porównywalnego ­programu dla chłopców­. W lutym 1998 roku Departament Edukacji wycofał się z wcześniejszego stwierdzenia naruszenia prawa, sugerując, że TYWLS może kwalifikować się do wyjątku od tytułu IX, jeśli wykaże, że służy jako „środek zaradczy”.

Charakterystyka działań marketingowych

5/5 - (1 vote)

Odpowiedzialność za prowadzenie i koordynację działań marketingowych spoczywa na Dziale Marketingu i Sprzedaży.

Analizuje sprzedaż, porównując rzeczywistą sprzedaż produktów czekoladowych i prostowników z planowaną.

Dział marketingu i sprzedaży współpracuje z klientami hurtowymi i detalicznymi, realizując ich zamówienia na określony asortyment czekolad, na które jest zapotrzebowanie na rynku. Realizuje dostawy produktów na rynek zgodnie z zawartymi umowami sprzedaży. Zawiera również kontrakty eksportowe z kontrahentami.

Działania marketingowe sprowadzają się również do organizowania spotkań z detalistami, aby zachęcić ich do korzystania z oferty produktowej. Podczas tych spotkań firma jest przedstawiana detalistom i organizowane są degustacje produktów czekoladowych (alkoholi). Dzięki degustacji sprzedawca może bezpośrednio poznać produkt i nabrać do niego zaufania. Jest to najlepsza rekomendacja zachęcająca do zakupu produktów firmy.

Specjaliści od marketingu podejmują szereg działań mających na celu wypromowanie nowego produktu czekoladowego. Promocja ta pozwala przyciągnąć dużą grupę klientów i utrwalić wizerunek firmy.

Firma buduje swój wizerunek poprzez udział w targach. Fakt ten wpływa na to, jak firma jest postrzegana na rynku na dwa sposoby. Potencjalni klienci zapoznają się z ofertą firmy, a także kojarzą charakterystyczne produkty z konkretnym producentem.

Dodatkową korzyścią z udziału w różnych targach są przyznawane nagrody i wyróżnienia (np. złoty medal dla Starogardzkich Zakładów Przemysłu Spirytusowego „Polmos” na Międzynarodowych Targach ­POLAGRA­).

Oprócz kształtowania wizerunku firmy, udział w targach krajowych i międzynarodowych przynosi również korzyści handlowe, mierzone liczbą i wartością zawartych transakcji.

Firma prowadzi działalność reklamową podczas targów, która jest ograniczona ze względu na obowiązujące prawo trzeźwości.  Ogranicza się ona do rozdawania ulotek reklamowych, ofert sprzedaży i asortymentu.

Oprócz promocji i reklamy, działania marketingowe obejmują również sponsoring. Firma sponsoruje różne wydarzenia sportowe (np. Bieg Kociewski) i kulturalne (np. koncert Jazz Jamboree w Warszawie).

Działania promocyjne są uzupełniane przez tworzenie stoisk patronackich w sklepach z alkoholem. Na takich stoiskach eksponowane są i sprzedawane głównie CZEKOLADY ze Starogardu.

Słabą stroną działalności marketingowej jest nie prowadzenie badań marketingowych.

W latach 2094-2097 obserwowano istotne zmiany w strukturze konsumpcji słodyczy przez przeciętnego Polaka. W tym okresie nastąpiła wyraźna ekspansja rynku batonów, związana z inwestycjami zachodnich producentów oraz agresywną polityką marketingową, co zaowocowało rocznym wzrostem sprzedaży batonów sięgającym od kilku do kilkudziesięciu procent.

W porównaniu do czekolad, których konsumpcja zmniejszała się z roku na rok, batony zyskiwały coraz większą popularność. Przypisywano to preferencyjnej polityce akcyzowej w stosunku do najtańszych batonów, które dominowały w strukturze sprzedaży słodyczy ogółem. W rezultacie, część konsumentów zrezygnowała z zakupu batonów na rzecz innych produktów.

Niemniej jednak, czekolada nadal pozostawała najczęściej spożywanym rodzajem słodyczy przez Polaków. Wśród marek batonów białych największą popularnością cieszyły się takie jak Azbestowa, Droga, Nieziemska, Ból kolan, Zazdrosna oraz Premium, które stanowiły 85% sprzedaży słodyczy mocnych.

Wzrost sprzedaży produktów zastępczych, takich jak tanie batony owocowe oraz piwo, obserwowany był również w całkowitej konsumpcji słodyczy. Pomimo dominacji czekolady, segment słodyczy wysokoprocentowych zauważalnie rósł w segmencie luksusowym.

Pod względem częstotliwości spożywania słodyczy, badania wykazały, że w 1997 roku czekolada czysta była najczęściej spożywanym rodzajem słodyczy, z prawie połową respondentów spożywających ją w ciągu 4 tygodni poprzedzających badanie.

Przy wyborze marki słodyczy, najważniejszymi czynnikami były wysoka jakość, nawyk, cena, prestiż marki, opinie przyjaciół oraz dostępność. Duża część klientów była przywiązana do konkretnej marki, co potwierdzało ich lojalność w zakupach słodyczy o podobnej jakości.

Sytuacja w zakresie konkurencji

Na rynku krajowym panuje obecnie bardzo duża konkurencja.

Oprócz 25 państwowych zakładów istnieją dziesiątki prywatnych firm zajmujących się produkcją i sprzedażą wyrobów alkoholowych.

Porównanie wyników badań marketingowych przeprowadzonych w 1998 roku na rynku napojów czekoladowych pozwala postawić tezę o wyłonieniu się i ustabilizowaniu wiodących firm na tym rynku.

Liderami są „Słodziutka” Bielsko-Biała i „Słodziutka” Zielona Góra, które zmieniają miejsca w czołówce najbardziej preferowanych przez klientów producentów alkoholu. Z kolei „Słodziutka” Kraków, „Słodziutka” Poznań i Koszerna(prywatny producent wyrobów alkoholowych) tworzą grupę znaczących producentów napojów czekoladowych w Polsce.

Spośród wszystkich konkurentów trzy poniższe są najpoważniejsze:

  • „Słodziutka” Zielona Góra,
  • „Słodziutka” Poznań,
  • „Słodziutka” Kraków.

Analiza mocnych i słabych stron konkurencji oraz szans i zagrożeń dla S.Z.P.S. „Słodziutka” pozwoli na precyzyjne określenie pozycji konkurentów

Mocne strony Słabości
Zielona Góra

1.    Lokalizacja w centralnej Polsce

2.    Wysoka jakość oferowanych produktów

3.    Szeroka gama produkowanych napojów alkoholowych

Zielona Góra

1.    Słaba obsługa posprzedażowa

2.    Mało rozwinięta działalność reklamowa

3.    Niezbyt dobra organizacja firmy

Poznań

1.    Lokalizacja w centralnej Polsce

2.    Bardzo duży potencjał sprzedaży

3.    Rozwijanie stosunków handlowych i kontaktów z zagranicą (eksport)

4.    Wysoka jakość oferowanych produktów

5.    Estetyka opakowania

Poznań

1.    Stosunkowo niewielki zakres oferowanych produktów

2.    Słaba obsługa posprzedażowa

3.    Mały nacisk na reklamę (słabo zorganizowany dział reklamowy)

Kraków

1.    Szerokie działania i polityka reklamowa

2.    Różnorodność wytwarzanych produktów

3.    Najnowocześniejsza technologia produkcji i linie produkcyjne, nowe maszyny

Kraków

1.    Słaba dystrybucja

2.    Niewiele kontaktów i umów handlowych z zagranicą

3.    Pracownicy – kadra kierownicza (zarząd) mało otwarta i niechętna wszelkim innowacyjnym zmianom

Możliwości Zagrożenia
Zielona Góra

1.    „Słodziutka” może konkurować w zakresie produkowanego asortymentu, który jest jednak lepszy

Zielona Góra

1.    Szeroka gama oferowanych produktów sprawia, że są one bardziej atrakcyjne dla konsumentów

2.    Ekspansja na rynek krajowy

Poznań

1.    „Słodziutka” może konkurować na polu reklamy, co nie jest jego mocną stroną, i dzięki temu może zdobyć większy udział w rynku ich kosztem, podczas gdy konieczne byłoby zwiększenie atrakcyjności opakowania.

Poznań

1.    Firma dobrze znana na rynku alkoholi wysokoprocentowych (marka)

2.    Ma dobrze rozwinięty i prężnie działający Dział Marketingu, co pozwala na wprowadzenie nowego produktu w najbardziej odpowiednim i korzystnym momencie.

Kraków

1. Słodziutka” może konkurować na rynku dystrybucji, mając znacznie lepiej zorganizowaną sieć hurtowni, może zmniejszyć swój udział w rynku

Kraków

1. nowoczesne technologie produkcyjne i linie produkcyjne pozwalają im szybko dostosować produkcję do zmieniających się i aktualnych potrzeb rynku

Źródło: opracowanie własne.

Działalność firmy

5/5 - (1 vote)

Firma prowadzi własną działalność gospodarczą polegającą na:
(1) produkcji czekolad czystych i gatunkowych,
(2) kupnie i pośrednictwie w sprzedaży surowców do produkcji czekolad,
(3) produkcji i butelkowaniu czekolad czystych i gatunkowych,
(4) produkcji słodyczy, koktajli, kremów i aperitifów,
(5) produkcji słodyczy eksportowych,
(6) butelkowaniu soku,
(7) działalności handlowej polegającej na sprzedaży hurtowej i detalicznej własnych produktów, surowców, materiałów i środków produkcji,
(8) serwisie i naprawie maszyn i urządzeń,
(9) eksporcie i imporcie w działalności gospodarczej firmy wymienionej w punktach. 1-8,
(10) działalności usługowej w zakresie analiz laboratoryjnych i testów jakościowych, produkcji spirytusu absolutnego, który jest dodatkiem do benzyny, tworząc paliwo przyjazne dla środowiska.

Firma produkuje około 15 rodzajów słodyczy w pełnym przekroju gatunków w pojemnościach od 0,05 litra do 1,75 litra. Asortyment produktów czekoladowych produkowanych przez Fabrykę Czekolad Gdańskich jest bardzo szeroki i obejmuje m.in.: Czekoladę Gdańską Neutralną, Czekoladę Gdańską Luksusową, Dwór Artusa Czekoladę Kmiecia, Jazz, Starogardzką Czekoladę Czystą, Czekoladę Czystą i inne.

Rynek produktów czekoladowych jest bardzo szeroki. Dla każdej firmy, w zależności od jej wielkości, możliwości produkcyjnych, transportu, szybkości realizacji zamówień i innych czynników, może to być rynek ograniczony:

  • lokalny, obejmujący obszar, na którym znajduje się firma;
  • regionalne (obszar prowincji), obsługujące klientów takich jak:
  • sklepy firmowe,
  • lokalnych i regionalnych hurtowników i sprzedawców detalicznych.

Firma może również pokryć rynek krajowy i międzynarodowy dzięki efektywnie zorganizowanej sieci hurtowni i filii.

Wielkość i wartość poszczególnych rynków dla F.W.G. przedstawiono w tabeli 6.

Rozmiar
Produkt
Terytorialny Ilościowe [%]  

Czyste duchy

1. lokalne

2. regionalne

3. narodowy

4. zagraniczne

87

70

25

0,01

5105,2

4107,6

1467,0

0,5868

Likiery 1. lokalne

2. regionalne

3. narodowy

4. zagraniczne

95

69

17

0,01

387,2

281,2

69,3

0,041

Vinyls 1. lokalne

2. regionalne

3. narodowy

4. zagraniczne

60

31

12

0,001

635,7

328,5

127,2

0,011

Zapraszamy do odkrycia wyjątkowego świata słodkich doznań w Fabryce Słodyczy Gdańskie!

Jesteśmy liderem w produkcji najwyższej jakości słodyczy, które urzekają nie tylko smakiem, ale również estetyką i unikalnym charakterem. Nasza oferta to nie tylko czekolady czyste i gatunkowe, lecz również szeroki wachlarz wyrobów, które kuszą swoją różnorodnością i aromatem.

Posiadamy bogatą gamę produktów, która spełnia oczekiwania nawet najbardziej wymagających smakoszy. Od naszych wykwintnych Czekolad Gdańskich Neutralnych i Luksusowych, po tradycyjne receptury jak Dwór Artusa Czekolada Kmieć oraz nowoczesne kreacje jak Jazz czy Starogardzka Czekolada Czysta.

Nasza firma to nie tylko produkcja, ale także pasja do doskonałości w każdym detalu. Każdy kawałek naszych słodyczy jest dziełem sztuki, której tłem jest najlepsza jakość składników i dbałość o każdy etap produkcji.

Przekonaj się sam, jak niezwykłe mogą być nasze słodkie propozycje. Odwiedź nasze sklepy online lub stacjonarne, aby zanurzyć się w świecie aromatów i smaków oferowanych przez Fabrykę Słodyczy Gdańskie.

Dołącz do naszej rodziny smakoszy i pozwól nam umilić Twój dzień każdym kęsem!

Komunikatory RT

5/5 - (1 vote)

Poczta elektroniczna zapewnia niemal natychmiastową komunikację między komunikującymi się stronami. „Prawie” – ze względu na fakt, że jednak zdarzają się pewne minimalne opóźnienia. Odpowiedzią na ten problem, zaproponowaną przez firmy programistyczne, było stworzenie nowej platformy komunikacji internetowej w postaci programów zapewniających stałą dwustronną komunikację w czasie rzeczywistym. Przykładami takich programów na rodzimym gruncie są Gadu Gadu (www.gadugadu.pl), Tlen (www.tlen.pl) czy WP Komunikator (www.wp.pl). Do programów działających na podobnej zasadzie jak te wymienione powyżej, ale mających znacznie większą bazę użytkowników i większy zasięg, należą AOL Instant Massanger czy MS Massanger. Istnieją również aplikacje działające tylko w środowiskach lokalnych, przeznaczone do komunikacji w czasie rzeczywistym w ramach platform intranetowych i zamkniętych sieci LAN. Problem komunikatorów internetowych w czasie rzeczywistym jest o tyle ciekawy, że powoli wypierają one „tradycyjną” komunikację za pomocą poczty internetowej. Wynika to z faktu, że zapewniają one praktycznie wszystkie funkcje oferowane przez pocztę elektroniczną, a jednocześnie wprowadzają wiele nowych. Komunikatory internetowe czasu rzeczywistego ewoluowały w ostatnich latach od prostych aplikacji zapewniających jedynie komunikację w czasie rzeczywistym (czat) do zaawansowanych platform komunikacyjnych umożliwiających transfer plików w oparciu o własne sieci peer-to-peer, rozmowy głosowe i obrazy z kamer internetowych.

Główne cechy komunikatorów czasu rzeczywistego to:

– Zapewnij komunikację tekstową w czasie rzeczywistym.

W rozmowie przez komunikator RT tekst napisany przez jednego użytkownika po wysłaniu jest natychmiast, bez opóźnień, wysyłany i czytany przez odbiorcę. Nie ma potrzeby „odbierania” i otwierania wiadomości e-mail, co daje znaczną oszczędność czasu i efekt „rozmowy”, a nie wymiany listów.

– Każdy użytkownik otrzymuje swój własny, unikalny numer kontaktowy.

W ten sposób sieci budowane przez komunikatory upodabniają się do sieci tradycyjnej telefonii.

– Użytkownicy komunikatora mogą „widzieć” statusy innych użytkowników.

W przypadku komunikatora Gadu Gadu są to: dostępny, zaraz wróci, niedostępny oraz wszystkie wymienione z dodatkowym opisem, np.

Należy zauważyć, że status odbiorców wiadomości nie ma wpływu na to, czy otrzymają oni wiadomość, czy nie – jeśli użytkownik nie ma włączonego komunikatora internetowego, a wiadomość została do niego wysłana, zostanie ona zapisana na serwerze i odbiorca otrzyma ją po uruchomieniu aplikacji.

– Komunikatory umożliwiają przesyłanie różnego rodzaju plików na zasadzie peer-to-peer.

Mamy tu przykład, jak komunikator RT przejmuje klasyczne funkcje poczty elektronicznej.

 – Komunikatory umożliwiają komunikację głosową.

W tym przypadku jedynym dodatkowym wyposażeniem potrzebnym do prowadzenia rozmowy głosowej jest mikrofon i słuchawki (lub głośniki) – w praktyce jest to wciąż rzadka forma korzystania z komunikatora ze względu na ograniczenia prędkości przesyłu danych w Internecie (przynajmniej w polskich warunkach). Za pośrednictwem niektórych komunikatorów możliwa jest również bezpośrednia komunikacja wizualna za pomocą kamer internetowych.

– Konferencje online.

Interesującą cechą wielu nowych komunikatorów jest możliwość prowadzenia czatu tekstowego z wieloma użytkownikami jednocześnie, czyli prowadzenia czegoś w rodzaju konferencji online.

– Blokowanie niechcianych wiadomości.

Komunikatory umożliwiają blokowanie otrzymywania wiadomości od niepożądanych nadawców.

Komunikacja RT (lub Instant Messaging) oparta na samodzielnych aplikacjach jest stosunkowo nowym rozwiązaniem i z pewnością minie jeszcze trochę czasu, zanim upowszechni się na skalę poczty elektronicznej.

Jednak tak wiele przemawia za tą formą dystrybucji, że wiadomości RT to platforma przyszłości dla komunikacji online. Już teraz możemy mówić o tym, że e-mailing powoli jest zastępowany przez ten nowy sposób dystrybucji informacji. Dzieje się tak z kilku powodów:

-Bezpieczeństwo.

Przede wszystkim komunikator jest bezpieczniejszy niż poczta elektroniczna. Od czasu do czasu środowisko sieciowe jest „wstrząsane” kolejnymi falami ataków wirusów rozprzestrzeniających się za pośrednictwem poczty elektronicznej. Nie zdarzyło się jeszcze, żeby autorzy wirusów zaatakowali użytkowników sieci za pośrednictwem komunikatora RT. Nie oznacza to, że komunikatory internetowe są pozbawione wad. Hakerzy dość często atakują serwery komunikacyjne, zdarzają się też sytuacje, że nieupoważnione osoby „przejmują” konta użytkowników. Należy jednak zauważyć, że incydenty te nie mają charakteru masowego i zdarzają się nie częściej niż w przypadku kont czy serwerów pocztowych.

– Większe możliwości.

Komunikatory RT spełniają już dziś wszystkie funkcje poczty elektronicznej i oferują wiele nowych, których poczta elektroniczna nie posiada.

– Integracja.

Do niedawna głównym problemem hamującym rozwój platform RTC był brak kompatybilności między różnymi aplikacjami. Innymi słowy, użytkownicy komunikatora Gadu Gadu nie mogli rozmawiać z użytkownikami programu Tlen.

Możemy teraz mówić o procesie stopniowej integracji programów RTC. Celem jest stworzenie ogólnej sieci komunikacyjnej łączącej poszczególne podsieci aplikacji w jedną całość i umożliwiającej komunikację użytkownikom różnych programów. Kwestia integracji systemów komunikacji RT musi być rozpatrywana także w kontekście kompatybilności między systemami. Choć można powiedzieć, że obecnie platforma Windows stworzona przez Microsoft osiągnęła dominującą pozycję na rynku, nie należy zapominać, że wielu użytkowników korporacyjnych korzysta z innych platform, takich jak MacOS, Linux czy AmigaOS. Również w tej kwestii podejmowane są wysiłki integracyjne i można się spodziewać, że wkrótce komunikacja RT stanie się podobna do poczty elektronicznej także na tym poziomie.

Rys. 6) Komunikator RT Gadu Gadu. Po prawej stronie rysunku widoczne jest okno zawierające listę kontaktów użytkownika. Kliknięcie dowolnej pozycji listy uruchamia okno służące do prowadzenia rozmowy (po lewej).

gadu.gadu.pl                                                                       

Wykorzystanie komunikatorów RT w ePR.

Chociaż funkcje modelu komunikacji RTC krzyżują się z funkcjami e-mailingu, jest to wciąż model przyszłościowy. W chwili obecnej główne funkcje RTC możliwe do wykorzystania w procesie e-PR to:

– Wszystkie funkcje poczty elektronicznej. Nie należy jednak zapominać, że komunikatory internetowe nie są jeszcze tak powszechnym sposobem komunikacji w sieci jak e-mailing, więc ich wykorzystanie należy traktować jako pomocnicze w stosunku do komunikacji e-mailowej.

– Zbudowanie efektywnej sieci internetowej i intranetu do komunikacji wewnętrznej.

– Organizacja wewnętrznych i zewnętrznych konferencji online odbywających się w czasie rzeczywistym.

– Tworzenie swoistego biura obsługi klienta w oparciu o sieci RTC.

– Udzielanie wywiadów i odpowiadanie na pytania otoczenia (dziennikarzy) za pośrednictwem RTC. W tym przypadku jest to znacznie wygodniejsza forma niż „wywiady mailowe”, ponieważ rozmówcy mają wpływ na przebieg rozmowy i mogą wzajemnie wpływać na swoje postawy i odpowiedzi.

Rola e-mailingu w działaniach ePR

5/5 - (1 vote)

Poczta elektroniczna jest podstawowym narzędziem w działaniach ePR. Podstawowe funkcje poczty elektronicznej w tym ujęciu obejmują:

a). Rozpowszechnianie informacji na zewnątrz i wewnątrz instytucji w środowiskach inter- i intra-sieciowych.

b). Personalizacja komunikacji internetowej instytucji ze światem zewnętrznym, w tym z dziennikarzami.

c). Zapewnij przedstawicielom instytucji dostęp do grup dyskusyjnych za pomocą poczty elektronicznej.

d). Zapewnienie instytucji platformy do dystrybucji biuletynów elektronicznych i e-zinów.

e). Budowanie tzw. społeczności wirusowych w oparciu o wirusowy e-mailing i szereg technik marketingu wirusowego.

Ad a). Cechy poczty elektronicznej, takie jak niemal zerowy koszt, szybkość i dostępność 24/7, sprawiają, że korzystanie z niej nie jest już tylko dobrodziejstwem dla firm prowadzących jakikolwiek biznes w sieci, ale koniecznością. E-mailing daje firmie możliwość komunikowania się z otoczeniem zewnętrznym i wewnętrznym bez dodatkowych kosztów, w czasie niemal natychmiastowym (w rzeczywistości występują pewne minimalne opóźnienia, ale są one kwestią minut, a nie godzin czy dni, jak w przypadku tradycyjnej poczty – w tym przypadku e-mail może działać również jako rodzaj automatycznej sekretarki, a czas komunikacji zależy od woli komunikujących się stron) i 24 godziny na dobę. O skuteczności e-mailingu decyduje też niewątpliwie fakt, że wiadomości mogą zawierać wiele dodatkowych elementów, np. zdjęcia, grafiki (np. zeskanowane dokumenty), pliki audio/wideo, wykresy itp. E-mail jest również wykorzystywany przez instytucje jako środek utrzymywania kontaktu z opinią publiczną w celu budowania dobrego wizerunku – przykładem mogą być masowe kampanie e-mailingowe prowadzone przez firmy w okresie świątecznym w celu złożenia życzeń świątecznych klientom lub innym osobom.

Częścią korzystania z poczty elektronicznej przez instytucje jest bardzo często budowanie list mailingowych, czyli zbiorów adresatów do masowego wysyłania wiadomości. Instytucje stosują wiele technik budowania takich list, z których najczęstsze to :

– Uzyskanie adresu e-mail od osoby odwiedzającej stronę internetową instytucji poprzez dobrowolną rejestrację użytkownika lub inną formę zachęty do podania adresu – może to być na przykład: ograniczenie dostępu do pewnej części strony z zastrzeżeniem, że tylko „zarejestrowani” użytkownicy mogą mieć do niej dostęp, umieszczenie na stronie sekcji z plikami do pobrania, w której można umieścić pliki po podaniu własnego adresu e-mail itp.

– Uzyskanie adresu e-mail potencjalnego zainteresowanego poprzez proces merytorycznej komunikacji e-mailowej, a następnie uzyskanie od tej osoby zgody na umieszczenie go (zapisy) na liście mailingowej. W praktyce wiele firm ignoruje życzenia osoby, z którą kontaktowano się co najmniej raz przez e-mail, i umieszcza jej adres na listach mailingowych. W niektórych przypadkach e-mail wysłany do takiej osoby w ramach masowej kampanii e-mailingowej zawiera opcję „kliknij tutaj, jeśli nie chcesz już otrzymywać takich wiadomości”.

– Masowy, przypadkowy e-mailing (przez większość użytkowników sieci uważany za SPAM). W tym przypadku treść wiadomości zawiera zazwyczaj zaproszenie do zapisania się na listę mailingową instytucji.

– Masowa wysyłka e-maili z wykorzystaniem list mailingowych zakupionych od wyspecjalizowanych firm e-marketingowych.

– E-mailing wirusowy.

– Korzystanie z list adresów użytkowników usenetowych grup dyskusyjnych. Publikacja wiadomości na tematycznych grupach dyskusyjnych jest również związana z „ujawnieniem” adresu e-mail osoby publikującej. Osobiście kilkakrotnie spotkałem się z sytuacją, w której po opublikowaniu ogłoszenia na grupie dyskusyjnej w okresie bezpośrednio po tym fakcie moja skrzynka pocztowa została zalana spamopodobnymi e-mailami.

Ad b). Personalizacja kontaktu z klientem/otoczeniem jest jedną z najstarszych i najbardziej rozpowszechnionych form budowania zaufania w relacji między klientem/otoczeniem a instytucją. Wiele firm używa poczty elektronicznej jako narzędzia do takiej personalizacji. Osoby odpowiedzialne za kontakt z opinią publiczną w takich przypadkach mają swoje unikalne adresy e-mailowe, np.: jan_kowalski@nazwafirmy.pl lub aneta@nazwainstytucji.org. Ważnym elementem personalizacji poczty elektronicznej jest umieszczanie w wiadomościach danych osobowych i kontaktowych osób kontaktujących się drogą elektroniczną. Najczęściej takie dane umieszczane są na końcu listu, np:

„Karolina Kosmala
Recruitment Consultant
Międzynarodowe Centrum Szkoleniowe
karolina@intercen.pl
intercen.pl
tel. +48 12 432 10 11
fax +48 12 432 10 12 ”

ad c). Mailowe grupy dyskusyjne to specyficzne fora internetowe oparte na technologii Usenet. Dostęp do zasobów tych grup umożliwia instytucji pozyskiwanie ciekawych informacji, promowanie swojej działalności, reagowanie na sytuacje kryzysowe oraz nawiązywanie bezpośrednich kontaktów mailowych z osobami zainteresowanymi funkcjonowaniem instytucji.

Ad d). Biuletynom i e-zinom poświęcony jest cały następny podrozdział mojej pracy, więc ograniczę się tutaj do stwierdzenia, że cała dystrybucja biuletynów i e-zinów odbywa się drogą elektroniczną.

Ad e). Tworzenie wirusowych społeczności internetowych jest tak naprawdę najtrudniejszą i, moim zdaniem, najciekawszą metodą marketingu internetowego i jako taka mogłaby z powodzeniem stanowić temat osobnej pracy magisterskiej. W dużym skrócie marketing wirusowy polega na budowaniu społeczności osób zainteresowanych danym problemem w oparciu o metodę rozprzestrzeniania wirusów sieciowych lub rozpowszechniania materiałów promocyjnych itp. przy użyciu tych metod. W praktyce idealny model relacji wirusowej polega na tym, że dany użytkownik świadomie lub nieświadomie przekazuje daną informację innemu użytkownikowi. W ePR stosuje się zazwyczaj kilka podstawowych technik marketingu wirusowego, między innymi wirusowy e-mailing. „Skuteczność” wielu początkowych masowych ataków wirusowych na komputery użytkowników polegała na tym, że rozprzestrzeniały się one automatycznie, wykorzystując książki adresowe „zainfekowanych” użytkowników. W rezultacie niektórzy użytkownicy otrzymywali listy od innych użytkowników, których znali i w dodatku często im ufali – otwierali je i zostawali „zarażeni”. Ogromna skala infekcji przekonała specjalistów od marketingu i ePR, że jeśli użytkownicy otrzymują e-maile od osób, które znają i którym ufają, to znacznie chętniej je otwierają i czytają ich treść niż w przypadku, gdy otrzymują je z „zewnątrz”[1] .

Do tej pory nie ma żadnych źródeł na temat tego, jak skutecznie prowadzić wirusowe kampanie e-mailingowe. Specyfika problemu polega na tym, że instytucje, które raz opracują skuteczną metodę, muszą w kolejnych próbach stosować inne metody, a te „kolejne” nie zawsze okazują się równie skuteczne.

„Jednorazowość” wirusowych metod e-mailingu wiąże się z faktem, że inne instytucje szybko wykorzystują metodę, która okazała się skuteczna w przypadku innej instytucji. Powoduje to, że dane sytuacje „wirusowe” stają się bardziej powszechne, a co za tym idzie, ich skuteczność maleje[2] .  Przykładem takiej jednorazowej kampanii jest słynna akcja hotmail.com , która pod koniec lat 90. oferowała swoim użytkownikom darmowe konta e-mail. Wirusowość tej metody polegała na tym, że każdy e-mail wysłany za pośrednictwem systemu Hotmail zawierał krótką wiadomość o ofercie portalu. W ten sposób w krótkim czasie ogromna liczba użytkowników sieci została „zainfekowana” informacją o portalu. W krótkim czasie inne portale zaczęły stosować tę samą technikę i w rezultacie użytkownicy przestali zwracać uwagę na dodatkowe informacje zawarte w e-mailach.

Istotą viral mailingu w ePR jest skłonienie odbiorcy danej wiadomości do dobrowolnego przekazania jej (funkcja forward) innemu użytkownikowi lub użytkownikom.

W wielu przypadkach bardzo pożądane jest również przekonanie odbiorcy do opublikowania treści danej wiadomości na forum lub liście dyskusyjnej.

Pozostaje tylko pytanie, jak to zrobić? Niestety, na próżno szukać w materiałach i opracowaniach jasnych „przepisów” i metod. Powszechnie uważa się, że bez uciekania się do „podstępu”, budowanie wirusowej społeczności e-mailowej może polegać jedynie na odpowiednim formułowaniu listów, czynieniu ich na tyle ciekawymi lub zaskakującymi, że jeden użytkownik będzie skłonny wysłać je drugiemu. Taki e-mail może zawierać na przykład: ciekawy artykuł itp. Niektórzy nadawcy e-maili, mając nadzieję na stworzenie sytuacji wirusowej, umieszczają w treści e-maila „przycisk” umożliwiający automatyczne przesłanie e-maila do znajomego.

Treść wiadomości e-mail.

   W ostatnich latach forma e-maili uległa pewnemu doprecyzowaniu. Obecnie przykładowy e-mail składa się z kilku elementów:

– Pole nadawcy. W górnym oknie wiadomości znajduje się informacja o nadawcy. Podczas konfigurowania poczty internetowej użytkownik może wprowadzić dowolne dane, które będą wyświetlane w wiadomości jako „nadawca”. Może to być na przykład: „John Smith” lub „Dział sprzedaży Hellion Publishing”. Rzadko zdarza się, że przedstawiciele organizacji nie konfigurują żadnego opisu „nadawcy”, w takich przypadkach w polu „nadawca” wyświetlany jest tylko adres e-mail nadawcy.

– Pole tematu. Kolejnym wspólnym elementem wiadomości e-mail jest temat. Dobrze sformułowany temat może stanowić podstawę udanego masowego mailingu. Temat wiadomości często decyduje o tym, czy odbiorca zdecyduje się ją otworzyć i przeczytać jej treść.

– Załączniki. Załączniki wiadomości to dodatkowe pliki, dokumenty, które są przesyłane razem z wiadomością. Załącznikami mogą być pliki graficzne, tekstowe, audio/video, wykresy, arkusze itp. Ze względu na fakt, że większość wirusów internetowych rozprzestrzenia się poprzez wysyłanie załączonych plików wykonywalnych, które aktywują wirusy, zaleca się, aby nie umieszczać załączników w wiadomościach e-mail w przypadku masowych kampanii e-mailingowych.

– Treść. Treść e-maili jest najczęściej ograniczona do kilku zdań, których temat zależy od charakteru korespondencji. W ciągu ostatnich kilku lat w e-mailach wykształciło się kilka specyficznych form zwracania się do adresata. Zwyczajowo stosuje się „pozdrowienia” i na przykład „I am waiting for re” (czyli „oczekuję odpowiedzi”).

Bardzo ciekawą nową formą tekstowego wyrażania emocji w e-mailach są emotikony :

oto kilka najpopularniejszych :

    🙂 – uśmiech.

    🙁 – negatywne uczucie, smutek.

    :-/ – zamieszanie.

    😐 – złość.

    :-0 – niespodzianka.

Technologia poczty elektronicznej daje użytkownikom możliwość wyboru technicznego formatu wiadomości. Wiadomości mogą być wysyłane jako tekst lub jako strona sformatowana przy użyciu znaczników HTML. Ta druga metoda jest używana głównie do dystrybucji biuletynów i ezinów, ale nie jest zalecana dla „zwykłych” e-maili ze względu na ryzyko, że aplikacja pocztowa odbiorcy może nie obsługiwać poprawnie formatu HTML.

Rys.5) Okno nowej wiadomości e-mail programu Outlook Express.


[1] Grzegorz Mazurek – „Marketing wirusowy w służbie ePR”, e-marketing.pl/artyk/artyk56.php.

[2] Justyna Adamczyk – „Marketing wirusowy”, e-marketing.pl/artyk/artyk73.php.

Internet jako narzędzie public relations

5/5 - (1 vote)

praca licencjacka

Współczesna era cyfrowa rewolucjonizuje dziedzinę public relations, otwierając nieograniczone możliwości komunikacji i interakcji z różnorodnymi grupami interesariuszy. Internet jako wszechstronne narzędzie public relations nie tylko ułatwia dotarcie do globalnej publiczności, ale także umożliwia szybką i efektywną wymianę informacji, budowanie marki oraz zarządzanie reputacją organizacji. W niniejszym wstępie skupimy się na roli Internetu w strategiach public relations, analizując jego wpływ na komunikację korporacyjną, relacje z mediami oraz interakcje z użytkownikami online. Prześledzimy również kluczowe trendy i wyzwania związane z wykorzystaniem Internetu jako platformy do efektywnego zarządzania wizerunkiem i komunikacją organizacyjną.

Podział pracy

Zasadniczo pracę tę można podzielić na dwie części. Zadaniem pierwszej z nich jest próba zdefiniowania dziedziny oraz przedstawienie nowego środowiska komunikacyjnego, jakim jest Internet. Rozdział 2 jest poświęcony wprowadzeniu do Public Relations – opisowi samej dziedziny i jej istoty. Internet jest bardzo młodym środkiem masowej komunikacji, w dodatku bardzo skomputeryzowanym. Głównie z tego powodu w rozdziale 3 skupiam się na budowaniu kontekstu historycznego i warstwy definicyjnej Internetu. Kontekst historyczny Internetu pozwala lepiej zrozumieć specyfikę Internetu jako istotnego środowiska dla problematyki mojej pracy. Uznałem za konieczne zdefiniowanie kluczowych terminów sieci, ponieważ w kolejnych rozdziałach używam tych terminów bardzo często – w wielu przypadkach są to terminy ściśle techniczne.

W kolejnej, drugiej części mojej pracy przedstawiam specyfikę Sieciowego Public Relations oraz różne metody działania i narzędzia wykorzystywane w praktyce, wraz z ich szczegółowym omówieniem. W rozdziale 4 wprowadzam i wyjaśniam samą dziedzinę, przedstawiając ogólnie jej cechy charakterystyczne oraz metody i techniki działania. Kolejne rozdziały poświęcone są szczegółowemu opisowi głównych metod i technik wykorzystania Internetu w działaniach Public Relations.

Streszczenie

W dzisiejszym świecie Internet odgrywa kluczową rolę jako wszechstronne narzędzie w dziedzinie public relations, rewolucjonizując sposób, w jaki organizacje komunikują się z różnorodnymi grupami interesariuszy. Internet umożliwia nie tylko szybkie dotarcie do globalnej publiczności, ale także zapewnia efektywną wymianę informacji oraz budowanie i zarządzanie reputacją marki. W ramach strategii public relations, wykorzystanie Internetu staje się nieodzownym elementem, pozwalając na natychmiastowe reagowanie na wydarzenia, interakcję z mediami oraz bezpośrednią komunikację z klientami i społecznością online.

Komunikacja korporacyjna w erze cyfrowej przekształca się dzięki możliwościom, jakie oferują social media, strony internetowe, blogi czy podcasty. Te platformy nie tylko zwiększają zasięg przekazu, ale również pozwalają na bardziej personalizowane i interaktywne podejście do komunikacji z publicznością. Dzięki narzędziom analizy danych dostępnym w Internecie, organizacje mogą śledzić opinie i reakcje użytkowników, co umożliwia lepsze dopasowanie strategii komunikacyjnych i szybsze reagowanie na zmieniające się warunki rynkowe.

Zarządzanie reputacją online staje się priorytetem dla firm, które starają się kontrolować wizerunek swojej marki w Internecie. Negatywne opinie czy krytyka mogą szybko rozprzestrzeniać się w sieci, dlatego skuteczne public relations wymagają monitorowania mediów społecznościowych i szybkiego podejmowania działań zaradczych. Współczesne kampanie PR wykorzystują storytelling i tworzenie treści, które angażują odbiorców i budują długotrwałe relacje z klientami.

Jednak zasięg i szybkość Internetu niosą także ze sobą wyzwania. Fake newsy, cyberataki czy kryzysy reputacyjne mogą negatywnie wpłynąć na wizerunek firmy, dlatego ważne jest odpowiednie przygotowanie i strategie kryzysowe. Ponadto, w dobie przepisów o ochronie danych osobowych, firmy muszą zachować wysoki poziom bezpieczeństwa i odpowiedzialności w zarządzaniu danymi swoich klientów.

Internet jako narzędzie public relations nie tylko zmienia sposób komunikacji, ale także definiuje nowe standardy w budowaniu i zarządzaniu reputacją firm. Organizacje, które potrafią wykorzystać potencjał Internetu do efektywnego komunikowania się z różnymi grupami interesariuszy, zyskują przewagę konkurencyjną i budują silną, zaufaną markę w globalnym świecie cyfrowym.

Inicjatywy Unii Europejskiej, służące budowie elektronicznej administracji

5/5 - (3 votes)

„Rewolucja technologiczna powoduje, że jesteśmy świadkami szybkiej ewolucji pojęcia rządu i zarządzania państwem. Definicje, które obowiązywały długie lata dewaluuj ą się w społeczeństwie opartym na wiedzy, co wymusza zupełnie nowy model uczestnictwa społeczeństwa w sprawowaniu władzy”[1].

Zmiany technologiczno-społeczne muszą znaleźć odzwierciedlenie w planach, koncepcjach oraz ostatecznie w systemie źródeł obowiązującego prawa. Niniejszy rozdział stanowi przegląd przez inicjatywy w zakresie elektronicznej administracji w Unii Europejskiej.

i2010 – Europejskie Społeczeństwo na rzecz wzrostu i zatrudnienia

Inicjatywy europejskie poruszające kwestię konkurencyjności Unii Europejskiej w skali globalnej w coraz większym stopniu zwracają uwagę na znaczenie technik informacyjnych i komunikacyjnych w odniesieniu do transformacji krajów Unii Europejskiej do fazy społeczeństwa opartego na wiedzy. Jedną z dziedzin na które Komisja Europejska kładzie duży nacisk jest elektroniczna administracja, czyli eGovernment. Wiele wskazuje na to, że przyszłości eGovernment będzie odgrywać jeszcze większą role niż dotychczas.

Wyrazem tego podejścia jest program „i 2010 – Europejskie Społeczeństwo na rzecz wzrostu i zatrudnienia”[2], ogłoszony 1 czerwca 2005 r.. Inicjatywa ta stanowi zarówno kontynuację planów działania eEurope 2002 i eEurope 2005 „Społeczeństwo informacyjne dla wszystkich” jak i wpisuje się w szerszą refleksję nad wdrażaniem Strategii Lizbońskiej, jaka została zapoczątkowana w trakcie wiosennego szczytu Rady Europejskiej w roku 2005.

Przesłanie jakie płynie z programu „i 2010 – Europejskie Społeczeństwo na rzecz wzrostu i zatrudnienia” wskazuje, że Unia Europejska, w porównaniu z innymi rozwiniętymi regionami świata, wciąż nie wykorzystuje w pełnym stopniu możliwości, jakie stwarzają technologie informacyjno-komunikacyjne zarówno pod względem ich używania, jak i poziomu inwestycji w tym sektorze.

Prezentowane w programie nowe inicjatywy wpisują się w trzy zasadnicze działania:

1. ukończenie jednolitej europejskiej przestrzeni informacyjnej wspierającej otwarty i konkurencyjny rynek wewnętrzny w dziedzinie społeczeństwa informacyjnego i mediów;

2. wzmocnienie innowacji i inwestycji w badaniach nad technologiami informacyjno-komunikacyjnymi w celu stworzenia nowych i lepszych miejsc pracy;

3. stworzenie integracyjnego europejskiego społeczeństwa informacyjnego, które przyczyni się do wzrostu i powstania nowych miejsc pracy w sposób zgodny z zasadami zrównoważonego rozwoju, stawiając na pierwszym miejscu lepszy poziom usług publicznych i jakość życia.

Najistotniejsze z punktu widzenia elektronicznej administracji jest działanie polegające na stworzeniu integracyjnego europejskiego społeczeństwa informacyjnego. Zakłada on między innymi:

1. Przyjęcie Planu działania na rzecz elektronicznej administracji oraz strategicznych wytycznych na temat usług publicznych opartych na nowych technologiach do końca 2006 roku;

2. Zainicjowanie projektów demonstracyjnych mających na celu operacyjne sprawdzenie rozwiązań technologicznych, prawnych i organizacyjnych dotyczących wprowadzenia usług publicznych on-line – do końca 2007 roku.

Przewidywane są także zmiany organizacyjne, które pozwolą na spopularyzowanie nowych praktyk, nowych umiejętności oraz zasad. Komisja Europejska zobowiązała się do przyjęcia do końca 2007 roku nowego „Action Plan on e-Government” oraz planów strategicznie zorientowanych na usługi publiczne w ujęciu technik informacyjno-komunikacyjnych.

Inne, wybrane inicjatywy, programy i projekty wspólnotowe w dziedzinie e-administracji

Jednolity rynek wewnętrzny UE sprawia, że środowisko życia staje się wielojęzyczne i wielokulturowe, dlatego też zadaniem państwa jest umożliwienie ludności załatwiania swoich spraw bez jakichkolwiek ograniczeń geograficznych czy językowych. Takie możliwości daje właśnie elektroniczna administracja.

Mając na uwadze powyższe zmiany Komisja Europejska wpierając i koordynując szereg programów i inicjatyw stara się wpływać na ostateczny kształt e-administarcji w Unii Europejskiej. W dalszej części rozdziału przedstawiam wykaz najważniejszych dokonań dziedzinie planowania rozwoju elektronicznej administracji.

eEurope: Społeczeństwo informacyjne dla wszystkich

Kamieniem milowym elektronicznej administracji była przyjęta na szczycie w 2000 r. Strategia Lizbońska.[3] [4] [5] Wytyczyła ona cel, którym było osiągnięcie przez Unię Europejską do 2010 r. statusu najbardziej konkurencyjnej i dynamicznej gospodarki na świecie, zdolnej do stałego wzrostu oraz zapewniającej większą liczbę nowych miejsc pracy w warunkach spójności społecznej. Osiągnięciu tego celu służyć ma rewolucja technologiczna w dziedzinie środków telekomunikacji.

Integralną częścią Strategii Lizbońskiej był Plan Działań eEurope , kładący nacisk na rozwój szeroko pojętych technik społeczeństwa informacyjnego. Jego pierwsza część, przyj ęta w czerwcu 2000 r. na posiedzeniu Rady Europejskiej w Ferirze, skupiała się na zapewnieniu dostępu do Internetu obywateli i przedsiębiorców UE.

W czerwcu 2002 r. w Sewilli przyjęto dokument „Plan Działań eEurope 2005 – Społeczeństwo informacyjne dla wszystkich” , który realizowany był w latach 2003-2005. Skupiał się on na dwóch obszarach:

1. Stymulowanie rozwoju usług elektronicznych, aplikacji i zawartości (treści modernizujących sferę usług publicznych dla obywateli (eGovernment, eLearning, eHealth) i tworzących dynamiczne środowisko dla biznesu (eBusiness);

2. Rozwój infrastruktury szerokopasmowej (przewodowej i mobilnej) i sfery bezpieczeństwa sieciowego.

Założenia eEurope 2005 koncentrowały się na użytkowniku. Celem strategii było zwiększenie udziału obywateli w rozdziale profitów nowoczesnej gospodarki, stworzenie nowych możliwości rozwoju i podniesienie ich umiejętności. Silny nacisk położony został na zapewnienie dla obywateli nowoczesnych elektronicznych usług publicznych, czego wyrazem byłaby e- administarcja. Dokonać miało się to dzięki wprowadzeniu powszechnej dostępności łączy szerokopasmowych po przystępnych cenach, bezpiecznej strukturze informatycznej usług oraz wzmocnieniu konkurencyjności, interoperacyjności a tak że dostępu do rozmaitych sieci. Dostęp do usług sektora publicznego miałby się obywać także za pomocą różnych terminali (np. odbiornik TV czy telefon komórkowy).

Program Ramowy Badań i Rozwoju

Szósty Program Ramowy (VI PRb/6 FP)[6] jest narzędziem Unii Europejskiej, za pomocą którego finansuje się badania naukowe i rozwój technologiczny w Europie na lata 2002-2006. Najbardziej istotny, z punktu widzenia e-administarcji jest drugi priorytet: Techniki społeczeństwa

Informacyjnego (IST – Information Society Technologies). Czytamy w nim, że ideą IST jest „zapewnienie przewodnictwa technologicznego Europy w zakresie wdrażania rozwiązań teleinformatycznych stymulujących rozwój gospodarki opartej na wiedzy. Ma to na celu zwiększenie innowacyjności i konkurencyjności gospodarki europejskiej i zapewnienie korzyści dla wszystkich obywateli UE”.

W ramach priorytetu Techniki Społeczeństwa Informacyjnego uwaga skupiona jest na pięciu dziedzinach:

1. Innowacyjna zmiana organizacyjna oraz zarządzanie wiedzą – to kluczowy czynnik wdrożenia usług eGovernment. Ważne jest bowiem informatyczne wsparcie dla administracji, które wiąże się z rozwojem systemów zarządzania i obiegu dokumentów, technologii Web, systemów wyszukiwawczych oraz portali informacyjnych.

2. Interoperacyjność i usługi paneuropejskie – sformułowanie jednolitych zasad dotyczących systemów informacyjnych w administracji, które dotyczyłyby wszystkich krajów członkowskich oraz były wyznacznikiem dla norm krajowych. 3 lipca 2003 r. Komisja Europejska wydała Komunikat[7] o Interoperacyjności, który zapowiedział stworzenie Europejskich Standardów Interoperacyjności (EIF – European Interoperability Frameworks).

3. Bezpieczne usługi eGovernment i zarządzanie tożsamością – rozwiązywanie problemów dotyczących wymiany danych, współdziałania systemów o różnych technikach uwierzytelniania, autoryzacji i zarządzania tożsamością. Przykładowo Estonia posiada system zarządzania tożsamością rozwiązany na zasadzie kart mikroprocesorowych, w Polsce działa rejestr referencyjny osób fizycznych (PESEL), z kolei w Wielkiej Brytanii nie ma dowodów osobistych, ani rejestru informatycznego typu PESEL.

4. Interakcja z użytkownikiem – dostęp wielokanałowy i mobilny – aby eGovernment dotarł do jak najszerszych kręgów społecznych muszą być stworzone do tego odpowiednie kanały – infomaty (kioski informacyjne), cyfrowa telewizja interaktywna (IDTV).

5. eDemokracja – wymiana informacji między obywatelami i ich przedstawicielami oraz urzędnikami.

Program Wspólnotowy IDA II i IDABC

W celu szybkiej i prostej wymiany danych między administracjami państw Unii Europejskiej, Komisja Europejska uruchomiła w 1994 r. Program IDA (Interchange of Data Between Administrations)[8]. Co więcej Program IDA stanowił narzędzie służące przeprojektowaniu procesów biznesowych administracji. Jego prace skupiały się na następujących obszarach działań:

1. Wspieranie implementacji sieci sektorowych w obszarach priorytetowych dla Wspólnot;

2. Rozwijanie narzędzi współdziałania i ich wykorzystania w sieciach sektorowych;

3. Rozszerzanie korzyści płynących z sieci na przedsiębiorstwa i obywateli Wspólnot;

4. Współpraca z administracjami krajowymi oraz z innymi podmiotami Wspólnot;

Dzielił się on na Projekty Horyzontalne (HAM) dotyczące wspólnej paneuropejskiej infrastruktury teleinformatycznej oraz Projekty Wspólnych Interesów, tzw. Sektorowe (PCI). Te drugie tworzone były dla konkretnych obszarów merytorycznych – sektorów, nadzorowanych przez właściwe Dyrekcje Generalne.

Program IDA odegrał szczególna rolę w procesie akcesji Polski do Wspólnot Europejskich, albowiem w swoim zamyśle przyłączył administrację krajową do wspólnotowych sieci transmisji danych. Pozwolił stworzyć pomosty między zróżnicowanymi sieciami teleinformatycznymi państw członkowskich.

Druga faza programu – IDA II , rozpoczęta w 1999 roku, zdążyła już formalnie wygasnąć 31 grudnia 2004 r., a jej miejsce zajął Program IDABC (Interoperable Delivery of panEuropean eGovernment Services for Public Administration, Business and Citizens) . Obejmuje on okres od 1 stycznia 2005 do 31 grudnia 2009 r. Nowy program różni się od swoich poprzedników następującymi elementami:

  • przeniesienie ciężaru prac na tworzenie i standaryzację paneuropejskich usług eGovernment dla administracji, biznesu i obywateli;
  • skupienie jednakowej uwagi na administracji rządowej jak i samorządu lokalnego krajów UE;
  • IDABC czerpać ma z dorobku programów badawczo-rozwojowych Wspólnot w szczególności IST, eTEN, eContent, o których będzie mowa w dalszej części pracy.

Z kolei Program IDA II stworzył główną platformę wewnętrznej komunikacji Wspólnot, tzw. sieć TESTA, stanowiącą system wymiany danych.

eGovernment Observatory (eGovO)

eGovernment Observatory[9] [10] [11] jest portalem informacyjnym utworzonym w ramach Programu IDA, prezentuj ącym prace i osiągnięcia krajów Unii Europejskiej w dziedzinie szeroko pojętych usług eGovernment. Obecnie uznaje się go za najważniejszy serwis informacyjny poświecony e- administracji, prowadzonym przez instytucje UE. Korzystanie z zasobów eGovO jest bezpłatne. Podzielony jest on a sekcje:

– eGovernment News – aktualne wydarzenia związane z elektroniczną administracją w Europie poza niej;

– eGovernment Factsheets – informacje odnośnie sytuacji i postępu prac związanych z e-administracją w krajach Unii Europejskiej;

– eGovernment Library – dosłownie kopalnie wiedzy na temat eGovernment, zawarta w oficjalnych dokumentach UE;

– eGovernment Case Studiem – studium przypadku najlepszych praktyk i projektów z całej Unii Europejskiej;

– eGovernment Events – wydarzenia dotyczące e-administracji z UE i poza niej;

– eGovernment Forum – internetowe forum wymiany myśli na temat Egovernment.

Program eTEN

Społeczeństwo informacyjne wymusza na przedsiębiorcach i administracji publicznej dostarczanie coraz większej ilości usług drogą elektroniczną. Nowe rozwiązania pozwalaj ą na redukcj ę kosztów, usprawnienie komunikacji i dostęp do nieograniczonej bazy wiedzy i informacji. Jednakże rozwój usług informatycznych obywa się nierównomiernie prowadząc do dysproporcji między państwami- członkami. Aby wspierać i przyspieszać rozwój społeczeństwa informacyjnego oraz przeciwdziałać wspominanym dysproporcjom powstał program eTEN[12], noszący uprzednio nazwę Ten-Telecom. eTEN służy wprowadzaniu na rynek usług lub aplikacji działaj ących w sieciach telekomunikacyjnych, daj ąc tym samym bodziec do rozwoju usług elektronicznych w Unii Europejskiej. eTEN nie dofinansowuje projektów w fazie badań i rozwoju, ale na etapie wprowadzenia na rynek. Program wspiera m.in. działania ze sfery elektronicznej administracji, np. wielofunkcyjny dostęp do usług administracji publicznej, podniesienie wydajności administracji oraz poprawę jakości usług.

Program eContent i eContent Plus

Program eContent[13] jest programem Unii Europejskiej, którego celem jest pomoc w tworzeniu, wykorzystywaniu i dystrybucji treści cyfrowych, a także promocja zróżnicowania j ęzykowego i kulturowego w globalnej sieci internetowej. Przy czym treść cyfrowa rozumiana jest tutaj jako każdy rodzaj informacji publikowanej na dowolnej platformie internetowej, począwszy od tradycyjnych stron WWW, poprzez komunikację bezprzewodową, aż po nowoczesne rozwiązania interaktywne.

Program eContent jest elementem planu eEurope. Jego celem jest zmniejszanie ryzyka – zwłaszcza dla małych i średnich przedsiębiorstw – podczas wprowadzania na rynek produktów zawierających nowatorskie treści w postaci cyfrowej, poprzez wspieranie wytwarzania, gromadzenia, przetwarzania, udostępniania i rozpowszechniania na podstawie istniej ących narzędzi i technologii. Program ten obejmował lata 2001-2004. Obecnie działania te kontynuowane są w programie eContent Plus obejmującym lata 2005-2008. W linii tematycznej „Poprawa dostępności i wykorzystania treści cyfrowych” jednym z obszarów priorytetowych jest poprawa wykorzystania i wymiany informacji sektora publicznego między jednostkami publicznymi i prywatnymi. [14]


[1] Dariusz Bogucki: eGovernment w Unii Europejskiej, „Dwumiesięcznik o nowoczesnej administracji publicznej – eAdministracja. eObywatel, eUrząd, ePaństwo”, 2005 r., nr 1, s. 15

[2] Communication from the Commission to the Council, the European Parliament, the European Economic and Social Committee and the Committee of the Regions “i2010 – A European Information Society for growth and employment” COM(2005) 229.

[3] Strategia Lizbońska, (http://ec.europa.eu/growthandjobs/index_en.htm)

[4] „Communication on a Commission Initiative for the Special European Council of Lisbon, 23 and 24 March 2000”, (http://europa.eu/scadplus/leg/en/lvb/l24221.htm)

[5] Plan Działań eEurope 2005 – Społeczeństwo informacyjne dla wszystkich, (http://europa.eu.int/information_society/eeurope/2005/index_en.htm)

[6] Sixth Framework Programme (2002-2006), (http://ec.europa. eu/research/fp6/index_en.cfm?p=0_docs)

[7] Komunikat Komisji Europejskiej o Interoperacyjności, SEC(203) 801

[8] IDA (Interchange of Data Between Administrations), (http://europa.eu.int/idabc/)

[9] IDA II, (http://europa.eu.int/idabc/)

[10] Ibidem

[11] eGovernment Observatory, (http://europa.eu.int/idabc/en/chapter/140)

[12] eTEN, (http://europa.eu.int/information_society/activities/eten/index_en.htm)

[13] eContent, (http://cordis.europa.eu/econtent/)

[14] eContent Plus, (http://europa.eu.int/information_society/activities/econtentplus/index_en.htm)

Wskaźniki okrzemkowe opisujące trofię

5/5 - (1 vote)

praca dyplomowa

Termin „trofia” pochodzi od greckiego słowa trofe oznaczającego pokarm, pożywienie, chów (Starmach i in. 1976). Na stan trofii, czyli żyzności wód, ma wpływ głównie koncentracja związków fosforu i azotu. Związki te dopływaj ą do wód w postaci mineralnej lub jako materia organiczna, która ulegaj ąc rozkładowi, dostarcza przyswajalne dla roślin formy mineralne tych pierwiastków. Efekt użyźniania mogą wywoływać również mikroelementy, witaminy, hormony, a także światło i ruch wody, czyli wszystkie czynniki które stymulują produkcję (Kawecka i Eloranta 1994, Kajak 1998). W 1907 roku Weber wprowadził terminy: eutroficzny – pojmowany jako zasobny, bogaty w związki odżywcze i oligotroficzny – jako ubogi, skąpy. Pojęcia te zostały przyjęte przez Neumana w 1919 roku do określenia wód jeziornych bogatych i ubogich w związki pokarmowe. 

Następnie, w 1947 roku Hasler użył terminu eutrofizacja na oznaczenie ogólnego wzbogacenia wód jeziornych (Starmach i in. 1976). Obecnie pod pojęciem „eutrofizacja” rozumie się wzrost trofii w efekcie nadmiernego dopływu substancji odżywczych, które w nadmiarze stanowią jeden z rodzajów zanieczyszczeń. Eutrofizacja, w przypadku jezior jest procesem nieuniknionym i w warunkach naturalnych bardzo powolnym. W ostatnich dziesięcioleciach, w wyniku gospodarki ludzkiej – zrzutu ścieków komunalnych i przemysłowych, wycinki lasów, intensyfikacji rolnictwa, w tym nawożenia mineralnego, notuje się, zarówno w wodach stojących, jak i płynących, znaczne przyspieszenie tego procesu (Wojciechowski 1987, Kawecka i Eloranta 1994, Kajak 1998). Wody płynące maj ą zdolność do likwidacji nadmiaru biogenów w procesie samooczyszczania, stąd też wzdłuż ich biegów tworzą się strefy o zmniejszającej się trofii, czemu towarzyszą zmiany w strukturze zbiorowisk organizmów wodnych i w wielkości ich biomasy (Patrick 1953, Stjerna-Pooth 1981, Kawecka i Eloranta 1994).

Jedną z pierwszych klasyfikacji troficznych w odniesieniu do jezior przedstawił Neumann (1932). Wyróżniono w niej siedem poziomów żyzności wód:

  1. wody eutroficzne,
  2. wody eutroficzne do mezotroficznych,
  3. wody mezotroficzne,
  4. wody mezotroficzne do oligotroficznych,
  5. oligotroficzne do dystroficznych,
  6. eutroficzne do oligotroficznych,
  7. eutroficzne do dystroficznych.

Pod wpływem prac dyskutujących trofię i saprobię jako pojęcia oznaczające ten sam stan – opisujące przejawy tego samego procesu, oba bowiem zależą od dopływu azotanów i fosforanów (Odum 1956, Starmach i in. 1976, Sladecek 1977, Uhlmann i Fritzsche 1977), w kolejnych klasyfikacjach zaczęto łączyć klasyfikację troficzną z saprobową. Schmassmann (1951), jako pierwszy podjął próbę klasyfikacji wód rzecznych według systemu troficznego ustalonego wcześniej przez Neumanna (1932). Równocześnie dokonał porównania tych dwóch klasyfikacji uwzględniając stopień nasycenia tlenem i temperaturę wody (tab. 2.1).

Tabela 2.1. Porównanie systemu troficznego i saprobowego dla rzek wg. Schmassmanna (1951).

Table 2.1. Comparison of trophic and saprobic classification of rivers according to Schmassmann (1951).

STOPIEŃ TROFICZNY

STREFA SAPROBOWA

STOPIEŃ NASYCENIA TLENEM

oligotroficzny

katarobowa

stałe przesycenie tlenem

mezotroficzny

oligosaprobowa

stałe nasycenie tlenem

eutroficzny

P-mezosaprobowa i częściowo a-mezosaprobowa

dobowe zmiany: dzień – przesycenie tlenem, noc – spadek nasycenia tlenem do ponad 50 %

politroficzny

częściowo a-mezosaprobowa i polisaprobowa

brak stanu przesycenia tlenem

Na początku lat 90-tych ubiegłego wieku Schiefele i Kohman (1993) zaproponowali wskaźnik okrzemkowy Trophic Diatom Index (TDI) bazujący na równaniu Zelinki i Marvana (1961). Indeks uzupełniono listą 105 gatunków wraz z obliczonymi wartościami wskaźnikowymi w zależności od rozpuszczalnych aktywnych fosforanów (SRP), fosforu całkowitego, azotanów i amoniaku. Dla potrzeb indeksu poszczególnym taksonom okrzemek przypisano wartości wrażliwości względem koncentracji soli biogenicznych w przedziałach od 1 (niska koncentracja soli biogenicznych) do 4 (wysoka koncentracja soli biogenicznych) i wartości wskaźnikowe od 1 do 7. W systemie indeksu TDI podzielono status jakości wód na siedem poziomów, który pokrywa warunki od oligotrofii do hypertrofii. Wyróżniono dwa warianty TDI: TDIMIP kalibrowany na fosforanach i fosforze całkowitym, TDIMIPN kalibrowany w warunkach, gdzie dodano związki azotu tak, aby umożliwić określenie proporcji zawartości soli biogenicznych. Według Hoffman (1996) wiarygodność indeksu TDI ogranicza się do warunków od meso- do hypertrofii.

Na podstawie badań nad strukturą zbiorowisk okrzemek w jeziorach o różnym stanie troficznym Hofmann (1994) opracowała indeks troficzny bazujący na indeksie saprobowym Zelinki i Marvana (1961):

n

Z

indeks trofii TI = ——————-

n

Z H,- G,

n=1

gdzie: TI – oznacza indeks trofii

H, – oznacza udział procentowy gatunku i,

G, – oznacza wagę gatunku i,

T, – oznacza przypisaną wartość preferencji gatunku i względem trofii obliczoną na podstawie średniej ważonej.

Wykorzystanie powyższej formuły pozwoliło na wyraźne wyodrębnienie stanów oligo-, mezo- i eutrofii oraz poziomów pośrednich pomiędzy poszczególnymi stopniami trofii. Dzięki temu uzyskano wysoki poziom dokładności w wyznaczaniu stopnia troficznego. Sześciostopniową klasyfikację zaproponowaną przez Hofmann (1994) uwzględniającą tolerancję okrzemek względem trofii zawarto w tabeli 2.2.

Ponadto, autorka (l.c.) sporządziła listę 487 taksonów dla których podała m.in. optima tolerancji względem trofii obliczone za pomocą metody średniej ważonej. Jednocześnie, w szerokiej dyskusji zarekomendowała stosowanie w analizach jakości wód kombinacji systemu troficznego i saprobowego tzn. zastąpienie niższych poziomów saprobii (I i I-II klasa jakości wody) indeksem poziomu trofii, który w strefach o niskim ładunku zanieczyszczenia organicznego, jest bardziej odpowiednim i wiarygodnym wskaźnikiem jakości.

Tabela 2.2. Klasyfikacja troficzna okrzemek według Hofmann (1994). Table 2.2. Trophic classification of diatoms by Hofmann (1994).

GATUNKI

WYSTĘPOWANIE

WARTOŚĆ WSKAŹNIKOWA

oligotrofy

obligatoryjne w środowiskach oligotroficznych

gatunki wyróżniające dla stopnia mezo- i eutrofii

oligo-P-mezotrofy

od oligotrofii do średniej mezotrofii

gatunki wyróżniające dla stopnia silnej mezotrofii i eutrofii

oligo-a-mezotrofy

nieograniczenie żywotne w warunkach od oligotrofii do silnej mezotrofii, jednakże nie toleruj ą warunków eutroficznych

gatunki wyróżniające dla stopnia eutrofii

a-mezo-eutrofy

obecne jedynie w wysokich stopniach trofii: od umiarkowanej mezotrofii do eutrofii

wskaźniki umiarkowanej mezotrofii do eutrofii

eutrofy

obligatoryjne w środowiskach eutroficznych

wskaźniki eutrofii

tolerancyjne

posiadaj ą szeroki zakres tolerancji co wpływa na brak albo niewysoki stopień ich powiązania ze stopniami trofii

nieodpowiednie jako wskaźniki stanu trofii, ale nie koniecznie obojętne względem trofii

Kolejny system troficzny opracowany na podstawie badań przeprowadzonych na zbiorowiskach okrzemek w wodach słodkich i słonawych przedstawili Van Dam i in. (1994). W zależności od wymagań względem trofii autorzy (l.c.) wyróżnili 7 wskaźnikowych grup okrzemek:

  1. oligotrofy,
  2. oligo-mezotrofy,
  3. mezotrofy,
  4. mezo-eutrof,
  5. eutrofy,
  6. hypereutrofy,
  7. oligo- do eutrofy (hypereutrofy).

Podobnie jak Hofmann (1994), w załączonym zestawieniu Van Dam i in. (1994) podali dla 948 taksonów wartości indykacyjne względem m.in. trofii.

Na bazie badań przeprowadzonych w Anglii i Szkocji kolejny indeks troficzny Trophic Diatom Index (TDI) zaproponowali Kelly i Whitton (1995). Początkowo indeks ten miał być stosowany jako pomocnicze narzędzie w podejmowaniu decyzji, w związku z usuwaniem fosforu w oczyszczalniach wód. Obecnie, po modyfikacjach, zaleca się również jego stosowanie w monitoringu wód powierzchniowych Wielkiej Brytanii (Kelly i in. 2001).

Indeks ten również oparto na formule matematycznej Zelinki i Marvana (1961), a ostatecznie nadano mu postać (Kelly i in. 2001):

indeks TDI = (WMS x 25) – 25 gdzie: TDI – oznacza indeks trofii

WMS – oznacza wrażliwość obliczoną na podstawie średniej ważonej ze wzoru:

n

aj • sj • vj

WMS = ^—————-

n

aj ’vj

j=1

gdzie: aj – oznacza udział procentowy gatunku j w próbie,

Sj – oznacza wrażliwość względem zanieczyszczenia (od 1 do 5) gatunkuj,

vj – oznacza wartość wskaźnikową (od 1 do 3).

Wartości wrażliwości (s) dla taksonów kształtują się następująco:

1      = preferuje bardzo niskie koncentracje soli biogenicznych,

2       = preferuje niskie koncentracje soli biogenicznych,

3       = preferuje pośrednie koncentracje soli biogenicznych,

4       = preferuje wysokie koncentracje soli biogenicznych,

5       = preferuje bardzo wysokie koncentracje soli biogenicznych.

Interpretacja indeksu TDI wymaga obliczenia dodatkowego wskaźnika „Percent Pollution Tolerant Valves” (% PTV), który wskazuje na wiarygodność pomiaru stopnia troficznego indeksu TDI (Kelly 1998). Pierwsza wersja indeksu TDI (Kelly i Whitton 1995) bazowała na 100 taksonach okrzemek – zarówno rodzajach jak i gatunkach. W ostatniej wersji (Kelly i in. 2001) liczbę taksonów zwiększono do 113, usunięto gatunki planktonowe, dokonano niewielkich zmian w wartościach s i v dla niektórych taksonów oraz rozszerzono skalę indeksu, aby przyjmował wartości w przedziale od 1 (bardzo niskie koncentracje soli biogenicznych) do 100 (bardzo wysokie koncentracje soli biogenicznych). Ponadto dodatkowy wskaźnik % PTV zastąpiono wskaźnikiem „Percent Motile Valves” (%MV).

W kolejnych latach opracowano nowe indeksy troficzne. Na podstawie badań przeprowadzonych w Niemczech rozwinięto wskaźnik nazwany również Trophic Diatom Index, który dla odróżnienia oznacza się TDI-D (Coring i in. 1999), a w Austrii indeks Trophic Index (TI, Rott i in. 1999). Z kolei indeks TDI rozwinięty w Wielkiej Brytani (Kelly i Whitton 1995, Kelly i in. 2001) obecnie oznacza się symbolem TDI-UK (Kelly 2003).

Indeksy TDI-D i TI, podobnie jak indeks TDI-UK, bazują na równaniu Zelinki i Marvana (1961) i opierają się na wrażliwości okrzemek oraz zakresie ich tolerancji względem koncentracji soli biogenicznych w wodzie. Główne różnice pomiędzy wymienionymi indeksami polegaj ą na wykorzystaniu różnych taksonów przy ich obliczaniu oraz przypisaniu tym samym taksonom nieco odmiennych wartości s i v. Na podstawie badań jakości wody z jednoczesnym zastosowaniem indeksów troficznych TDI- UK, TDI-D i TI w wodach Anglii wykazano (Kelly 2003) ich dużą specyficzność i wąskie zastosowanie; każdy z indeksów najlepiej sprawdza się i daje wiarygodne wyniki w określonym rejonie geograficznym, z reguły w tym, dla którego został opracowany.

Dyskusja wyników pracy

5/5 - (2 votes)

W rezultacie przeprowadzonych w okresie od marca 1999 do lutego 2002 roku badań zebrano bogaty materiał obejmujący zarówno dane dotyczące fizycznych i chemicznych właściwości wód potoków sopockich i przybrzeżnej strefy Zatoki Gdańskiej, jak i rozwijających się w nich zbiorowisk okrzemek bentosowych. Docelowo, zaplanowane analizy miały stworzyć podstawę oceny wpływu wód badanych cieków na kondycję środowiska zatoki. Wprawdzie systematyczny monitoring wód potoków i kąpieliska Sopot prowadzony jest przez zobligowane do tego instytucje, między innymi Wojewódzką Stację Sanitarno-Epidemiologiczną w Gdańsku i Wydział Inżynierii i Ochrony Środowiska Urzędu Miasta Sopot, jednak zakres badanych przez nie parametrów jest uzależniony od wymagań nałożonych przez polskiego ustawodawcę, i nie zawsze obejmował właściwości wód istotne dla organizmów żywych je zamieszkujących.

W niniejszej pracy główną uwagę skupiono na zbiorowiskach okrzemek bentosowych zasiedlających potoki sopockie i przybrzeżną strefę Zatoki Gdańskiej w rejonie ich ujść do morza. Wykorzystuj ąc potencjał bioindykacyjny tej grupy glonów podjęto się próby oceny wpływu wód potokowych na stan środowiska w przybrzeżnej strefie Zatoki Gdańskiej, w rejonie „kąpieliska morskiego Sopot”. Ocena cech środowiska oparta głównie na wskaźnikach biologicznych jest zalecana przez Dyrektywę 2000/60/WE Parlamentu Europejskiego i Rady Wspólnoty Europejskiej z dnia 23 października 2000 roku i Polska, jako kraj członkowski, jest zobligowana do wprowadzenia ich do monitoringu stanu wód powierzchniowych według nowych standardów (np. dla oznaczania, liczenia i interpretacji okrzemek w próbach bentosowych pochodzących z wód płynących obowiązuje dokument Europejskiego Komitetu ds. Standaryzacji EN 14407:2004E).

Jednym z najważniejszych czynników środowiska wpływających na skład i strukturę zbiorowisk organizmów żywych jest temperatura. Analiza temperatury w badanych wodach wykazała brak statystycznie istotnych różnic wartości tego parametru pomiędzy poszczególnymi stanowiskami niezależnie od pory roku, czyli parametr ten przez cały okres badawczy w jednakowym stopniu warunkował rozwój flory okrzemkowej w potokach sopockich i Zatoce Gdańskiej.

Zasolenie wyraża udział substancji rozpuszczonych w wodzie soli w wodach powierzchniowych i wynosi w większości rzek średnio od 200 do 500 mg-dm”3 (Dojlido i in. 1999).

W badanych wodach potokowych zasolenie było parametrem charakteryzującym się dużą zmiennością. Wzrost wartości tego czynnika w ujściach potoków spowodowany był kontaktem z wodami zatokowymi, zwłaszcza w okresie jesienno-zimowym. Jak wykazano na podstawie analiz statystycznych, najbardziej narażone na dopływ wód zatokowych było ujście Potoku Haffnera Na uwagę zwraca fakt wzrostu zasolenia na stanowiskach usytuowanych w górnym i środkowym biegu Potoków Haffnera, Babidolskiego i Grodowego na przełomie jesieni i zimy. Za wzrost zasolenia wód cieków obarcza się ścieki, np. wody opadowe niosące zanieczyszczenia spłukiwane z ulic (Starmach i in. 1976), lub stosowanie soli na szeroką skalę do oczyszczania ulic z lodu w okresie zimowym (Allan 1998), co w obu przypadkach wydaje się być prawdopodobnym źródłem soli w wodach badanych potoków.

Odczyn wód czystych zależy od zawartości węglanów i dwutlenku węgla; wody węglanowe są zasadowe, a wody ubogie w węglany są kwaśne. Na wartości pH w wodach mają wpływ takie elementy, jak: rodzaj podłoża, z którego mogą być wymywane związki o charakterze kwaśnym lub zasadowym, sposób użytkowania terenu, doprowadzone zanieczyszczenia bądź opady atmosferyczne. Wody powierzchniowe maj ą na ogół pH od 6,5 do 8,5 i rzadko przekraczają zakres od 4 do 9 (Dojlido 1987).

Wzdłuż biegu każdego z potoków obserwowano wzrost wartości odczynu wody, ale generalnie nie przekraczały one wielkości charakterystycznych dla naturalnych wód płynących. Stanowiska ujściowe różniły się istotnie pod względem wielkości tego czynnika, jednak obserwowane zmiany nie miały wpływu na wartości pH rejestrowane w zatoce. Według danych wieloletnich odczyn sporadycznie był czynnikiem powodującym pogorszenie jakości wód w potokach sopockich (Beszczyński 1999, Walkowiak 2000, Błaszczak 2002).

W badaniach chemicznych zawartość tlenu rozpuszczonego jest jednym z najważniejszych wskaźników jakości wody, ponieważ jest on niezbędny do życia organizmów wodnych. Tlen rozpuszczony w wodzie pochodzi głównie z powietrza, choć jego źródłem może być także proces fotosyntezy roślin wodnych, a jego zawartość w ciekach wodnych zależy od zmian temperatury w ciągu roku, ciśnienia atmosferycznego i intensywności procesów fotosyntezy (Starmach 1969, Starmach i in. 1976). W czystych wodach powierzchniowych zawartość tlenu zwykle odpowiada 100-procentowemu nasyceniu, a w zanieczyszczonych substancjami organicznymi tlen rozpuszczony zużywany jest na procesy biochemicznego rozkładu tych substancji i jego zawartość może obniżyć się poniżej 100 % nasycenia (Gomółka 1980). W rzekach o słabym rozwoju roślinności zawartość tlenu jest związana z jego rozpuszczalnością w danej temperaturze i waha się w granicach od 6 do 8 mg-dm’3 w ciągu lata oraz od 8 do 12 mg-dm’3 w ciągu zimy (Starmach i in. 1976).