Inicjatywy Unii Europejskiej, służące budowie elektronicznej administracji

5/5 - (2 votes)

„Rewolucja technologiczna powoduje, że jesteśmy świadkami szybkiej ewolucji pojęcia rządu i zarządzania państwem. Definicje, które obowiązywały długie lata dewaluuj ą się w społeczeństwie opartym na wiedzy, co wymusza zupełnie nowy model uczestnictwa społeczeństwa w sprawowaniu władzy”[1].

Zmiany technologiczno-społeczne muszą znaleźć odzwierciedlenie w planach, koncepcjach oraz ostatecznie w systemie źródeł obowiązującego prawa. Niniejszy rozdział stanowi przegląd przez inicjatywy w zakresie elektronicznej administracji w Unii Europejskiej.

i2010 – Europejskie Społeczeństwo na rzecz wzrostu i zatrudnienia

Inicjatywy europejskie poruszające kwestię konkurencyjności Unii Europejskiej w skali globalnej w coraz większym stopniu zwracają uwagę na znaczenie technik informacyjnych i komunikacyjnych w odniesieniu do transformacji krajów Unii Europejskiej do fazy społeczeństwa opartego na wiedzy. Jedną z dziedzin na które Komisja Europejska kładzie duży nacisk jest elektroniczna administracja, czyli eGovernment. Wiele wskazuje na to, że przyszłości eGovernment będzie odgrywać jeszcze większą role niż dotychczas.

Wyrazem tego podejścia jest program „i 2010 – Europejskie Społeczeństwo na rzecz wzrostu i zatrudnienia”[2], ogłoszony 1 czerwca 2005 r.. Inicjatywa ta stanowi zarówno kontynuację planów działania eEurope 2002 i eEurope 2005 „Społeczeństwo informacyjne dla wszystkich” jak i wpisuje się w szerszą refleksję nad wdrażaniem Strategii Lizbońskiej, jaka została zapoczątkowana w trakcie wiosennego szczytu Rady Europejskiej w roku 2005.

Przesłanie jakie płynie z programu „i 2010 – Europejskie Społeczeństwo na rzecz wzrostu i zatrudnienia” wskazuje, że Unia Europejska, w porównaniu z innymi rozwiniętymi regionami świata, wciąż nie wykorzystuje w pełnym stopniu możliwości, jakie stwarzają technologie informacyjno-komunikacyjne zarówno pod względem ich używania, jak i poziomu inwestycji w tym sektorze.

Prezentowane w programie nowe inicjatywy wpisują się w trzy zasadnicze działania:

1. ukończenie jednolitej europejskiej przestrzeni informacyjnej wspierającej otwarty i konkurencyjny rynek wewnętrzny w dziedzinie społeczeństwa informacyjnego i mediów;

2. wzmocnienie innowacji i inwestycji w badaniach nad technologiami informacyjno-komunikacyjnymi w celu stworzenia nowych i lepszych miejsc pracy;

3. stworzenie integracyjnego europejskiego społeczeństwa informacyjnego, które przyczyni się do wzrostu i powstania nowych miejsc pracy w sposób zgodny z zasadami zrównoważonego rozwoju, stawiając na pierwszym miejscu lepszy poziom usług publicznych i jakość życia.

Najistotniejsze z punktu widzenia elektronicznej administracji jest działanie polegające na stworzeniu integracyjnego europejskiego społeczeństwa informacyjnego. Zakłada on między innymi:

1. Przyjęcie Planu działania na rzecz elektronicznej administracji oraz strategicznych wytycznych na temat usług publicznych opartych na nowych technologiach do końca 2006 roku;

2. Zainicjowanie projektów demonstracyjnych mających na celu operacyjne sprawdzenie rozwiązań technologicznych, prawnych i organizacyjnych dotyczących wprowadzenia usług publicznych on-line – do końca 2007 roku.

Przewidywane są także zmiany organizacyjne, które pozwolą na spopularyzowanie nowych praktyk, nowych umiejętności oraz zasad. Komisja Europejska zobowiązała się do przyjęcia do końca 2007 roku nowego „Action Plan on e-Government” oraz planów strategicznie zorientowanych na usługi publiczne w ujęciu technik informacyjno-komunikacyjnych.

Inne, wybrane inicjatywy, programy i projekty wspólnotowe w dziedzinie e-administracji

Jednolity rynek wewnętrzny UE sprawia, że środowisko życia staje się wielojęzyczne i wielokulturowe, dlatego też zadaniem państwa jest umożliwienie ludności załatwiania swoich spraw bez jakichkolwiek ograniczeń geograficznych czy językowych. Takie możliwości daje właśnie elektroniczna administracja.

Mając na uwadze powyższe zmiany Komisja Europejska wpierając i koordynując szereg programów i inicjatyw stara się wpływać na ostateczny kształt e-administarcji w Unii Europejskiej. W dalszej części rozdziału przedstawiam wykaz najważniejszych dokonań dziedzinie planowania rozwoju elektronicznej administracji.

eEurope: Społeczeństwo informacyjne dla wszystkich

Kamieniem milowym elektronicznej administracji była przyjęta na szczycie w 2000 r. Strategia Lizbońska.[3] [4] [5] Wytyczyła ona cel, którym było osiągnięcie przez Unię Europejską do 2010 r. statusu najbardziej konkurencyjnej i dynamicznej gospodarki na świecie, zdolnej do stałego wzrostu oraz zapewniającej większą liczbę nowych miejsc pracy w warunkach spójności społecznej. Osiągnięciu tego celu służyć ma rewolucja technologiczna w dziedzinie środków telekomunikacji.

Integralną częścią Strategii Lizbońskiej był Plan Działań eEurope , kładący nacisk na rozwój szeroko pojętych technik społeczeństwa informacyjnego. Jego pierwsza część, przyj ęta w czerwcu 2000 r. na posiedzeniu Rady Europejskiej w Ferirze, skupiała się na zapewnieniu dostępu do Internetu obywateli i przedsiębiorców UE.

W czerwcu 2002 r. w Sewilli przyjęto dokument „Plan Działań eEurope 2005 – Społeczeństwo informacyjne dla wszystkich” , który realizowany był w latach 2003-2005. Skupiał się on na dwóch obszarach:

1. Stymulowanie rozwoju usług elektronicznych, aplikacji i zawartości (treści modernizujących sferę usług publicznych dla obywateli (eGovernment, eLearning, eHealth) i tworzących dynamiczne środowisko dla biznesu (eBusiness);

2. Rozwój infrastruktury szerokopasmowej (przewodowej i mobilnej) i sfery bezpieczeństwa sieciowego.

Założenia eEurope 2005 koncentrowały się na użytkowniku. Celem strategii było zwiększenie udziału obywateli w rozdziale profitów nowoczesnej gospodarki, stworzenie nowych możliwości rozwoju i podniesienie ich umiejętności. Silny nacisk położony został na zapewnienie dla obywateli nowoczesnych elektronicznych usług publicznych, czego wyrazem byłaby e- administarcja. Dokonać miało się to dzięki wprowadzeniu powszechnej dostępności łączy szerokopasmowych po przystępnych cenach, bezpiecznej strukturze informatycznej usług oraz wzmocnieniu konkurencyjności, interoperacyjności a tak że dostępu do rozmaitych sieci. Dostęp do usług sektora publicznego miałby się obywać także za pomocą różnych terminali (np. odbiornik TV czy telefon komórkowy).

Program Ramowy Badań i Rozwoju

Szósty Program Ramowy (VI PRb/6 FP)[6] jest narzędziem Unii Europejskiej, za pomocą którego finansuje się badania naukowe i rozwój technologiczny w Europie na lata 2002-2006. Najbardziej istotny, z punktu widzenia e-administarcji jest drugi priorytet: Techniki społeczeństwa

Informacyjnego (IST – Information Society Technologies). Czytamy w nim, że ideą IST jest „zapewnienie przewodnictwa technologicznego Europy w zakresie wdrażania rozwiązań teleinformatycznych stymulujących rozwój gospodarki opartej na wiedzy. Ma to na celu zwiększenie innowacyjności i konkurencyjności gospodarki europejskiej i zapewnienie korzyści dla wszystkich obywateli UE”.

W ramach priorytetu Techniki Społeczeństwa Informacyjnego uwaga skupiona jest na pięciu dziedzinach:

1. Innowacyjna zmiana organizacyjna oraz zarządzanie wiedzą – to kluczowy czynnik wdrożenia usług eGovernment. Ważne jest bowiem informatyczne wsparcie dla administracji, które wiąże się z rozwojem systemów zarządzania i obiegu dokumentów, technologii Web, systemów wyszukiwawczych oraz portali informacyjnych.

2. Interoperacyjność i usługi paneuropejskie – sformułowanie jednolitych zasad dotyczących systemów informacyjnych w administracji, które dotyczyłyby wszystkich krajów członkowskich oraz były wyznacznikiem dla norm krajowych. 3 lipca 2003 r. Komisja Europejska wydała Komunikat[7] o Interoperacyjności, który zapowiedział stworzenie Europejskich Standardów Interoperacyjności (EIF – European Interoperability Frameworks).

3. Bezpieczne usługi eGovernment i zarządzanie tożsamością – rozwiązywanie problemów dotyczących wymiany danych, współdziałania systemów o różnych technikach uwierzytelniania, autoryzacji i zarządzania tożsamością. Przykładowo Estonia posiada system zarządzania tożsamością rozwiązany na zasadzie kart mikroprocesorowych, w Polsce działa rejestr referencyjny osób fizycznych (PESEL), z kolei w Wielkiej Brytanii nie ma dowodów osobistych, ani rejestru informatycznego typu PESEL.

4. Interakcja z użytkownikiem – dostęp wielokanałowy i mobilny – aby eGovernment dotarł do jak najszerszych kręgów społecznych muszą być stworzone do tego odpowiednie kanały – infomaty (kioski informacyjne), cyfrowa telewizja interaktywna (IDTV).

5. eDemokracja – wymiana informacji między obywatelami i ich przedstawicielami oraz urzędnikami.

Program Wspólnotowy IDA II i IDABC

W celu szybkiej i prostej wymiany danych między administracjami państw Unii Europejskiej, Komisja Europejska uruchomiła w 1994 r. Program IDA (Interchange of Data Between Administrations)[8]. Co więcej Program IDA stanowił narzędzie służące przeprojektowaniu procesów biznesowych administracji. Jego prace skupiały się na następujących obszarach działań:

1. Wspieranie implementacji sieci sektorowych w obszarach priorytetowych dla Wspólnot;

2. Rozwijanie narzędzi współdziałania i ich wykorzystania w sieciach sektorowych;

3. Rozszerzanie korzyści płynących z sieci na przedsiębiorstwa i obywateli Wspólnot;

4. Współpraca z administracjami krajowymi oraz z innymi podmiotami Wspólnot;

Dzielił się on na Projekty Horyzontalne (HAM) dotyczące wspólnej paneuropejskiej infrastruktury teleinformatycznej oraz Projekty Wspólnych Interesów, tzw. Sektorowe (PCI). Te drugie tworzone były dla konkretnych obszarów merytorycznych – sektorów, nadzorowanych przez właściwe Dyrekcje Generalne.

Program IDA odegrał szczególna rolę w procesie akcesji Polski do Wspólnot Europejskich, albowiem w swoim zamyśle przyłączył administrację krajową do wspólnotowych sieci transmisji danych. Pozwolił stworzyć pomosty między zróżnicowanymi sieciami teleinformatycznymi państw członkowskich.

Druga faza programu – IDA II , rozpoczęta w 1999 roku, zdążyła już formalnie wygasnąć 31 grudnia 2004 r., a jej miejsce zajął Program IDABC (Interoperable Delivery of panEuropean eGovernment Services for Public Administration, Business and Citizens) . Obejmuje on okres od 1 stycznia 2005 do 31 grudnia 2009 r. Nowy program różni się od swoich poprzedników następującymi elementami:

  • przeniesienie ciężaru prac na tworzenie i standaryzację paneuropejskich usług eGovernment dla administracji, biznesu i obywateli;
  • skupienie jednakowej uwagi na administracji rządowej jak i samorządu lokalnego krajów UE;
  • IDABC czerpać ma z dorobku programów badawczo-rozwojowych Wspólnot w szczególności IST, eTEN, eContent, o których będzie mowa w dalszej części pracy.

Z kolei Program IDA II stworzył główną platformę wewnętrznej komunikacji Wspólnot, tzw. sieć TESTA, stanowiącą system wymiany danych.

eGovernment Observatory (eGovO)

eGovernment Observatory[9] [10] [11] jest portalem informacyjnym utworzonym w ramach Programu IDA, prezentuj ącym prace i osiągnięcia krajów Unii Europejskiej w dziedzinie szeroko pojętych usług eGovernment. Obecnie uznaje się go za najważniejszy serwis informacyjny poświecony e- administracji, prowadzonym przez instytucje UE. Korzystanie z zasobów eGovO jest bezpłatne. Podzielony jest on a sekcje:

– eGovernment News – aktualne wydarzenia związane z elektroniczną administracją w Europie poza niej;

– eGovernment Factsheets – informacje odnośnie sytuacji i postępu prac związanych z e-administracją w krajach Unii Europejskiej;

– eGovernment Library – dosłownie kopalnie wiedzy na temat eGovernment, zawarta w oficjalnych dokumentach UE;

– eGovernment Case Studiem – studium przypadku najlepszych praktyk i projektów z całej Unii Europejskiej;

– eGovernment Events – wydarzenia dotyczące e-administracji z UE i poza niej;

– eGovernment Forum – internetowe forum wymiany myśli na temat Egovernment.

Program eTEN

Społeczeństwo informacyjne wymusza na przedsiębiorcach i administracji publicznej dostarczanie coraz większej ilości usług drogą elektroniczną. Nowe rozwiązania pozwalaj ą na redukcj ę kosztów, usprawnienie komunikacji i dostęp do nieograniczonej bazy wiedzy i informacji. Jednakże rozwój usług informatycznych obywa się nierównomiernie prowadząc do dysproporcji między państwami- członkami. Aby wspierać i przyspieszać rozwój społeczeństwa informacyjnego oraz przeciwdziałać wspominanym dysproporcjom powstał program eTEN[12], noszący uprzednio nazwę Ten-Telecom. eTEN służy wprowadzaniu na rynek usług lub aplikacji działaj ących w sieciach telekomunikacyjnych, daj ąc tym samym bodziec do rozwoju usług elektronicznych w Unii Europejskiej. eTEN nie dofinansowuje projektów w fazie badań i rozwoju, ale na etapie wprowadzenia na rynek. Program wspiera m.in. działania ze sfery elektronicznej administracji, np. wielofunkcyjny dostęp do usług administracji publicznej, podniesienie wydajności administracji oraz poprawę jakości usług.

Program eContent i eContent Plus

Program eContent[13] jest programem Unii Europejskiej, którego celem jest pomoc w tworzeniu, wykorzystywaniu i dystrybucji treści cyfrowych, a także promocja zróżnicowania j ęzykowego i kulturowego w globalnej sieci internetowej. Przy czym treść cyfrowa rozumiana jest tutaj jako każdy rodzaj informacji publikowanej na dowolnej platformie internetowej, począwszy od tradycyjnych stron WWW, poprzez komunikację bezprzewodową, aż po nowoczesne rozwiązania interaktywne.

Program eContent jest elementem planu eEurope. Jego celem jest zmniejszanie ryzyka – zwłaszcza dla małych i średnich przedsiębiorstw – podczas wprowadzania na rynek produktów zawierających nowatorskie treści w postaci cyfrowej, poprzez wspieranie wytwarzania, gromadzenia, przetwarzania, udostępniania i rozpowszechniania na podstawie istniej ących narzędzi i technologii. Program ten obejmował lata 2001-2004. Obecnie działania te kontynuowane są w programie eContent Plus obejmującym lata 2005-2008. W linii tematycznej „Poprawa dostępności i wykorzystania treści cyfrowych” jednym z obszarów priorytetowych jest poprawa wykorzystania i wymiany informacji sektora publicznego między jednostkami publicznymi i prywatnymi. [14]


[1] Dariusz Bogucki: eGovernment w Unii Europejskiej, „Dwumiesięcznik o nowoczesnej administracji publicznej – eAdministracja. eObywatel, eUrząd, ePaństwo”, 2005 r., nr 1, s. 15

[2] Communication from the Commission to the Council, the European Parliament, the European Economic and Social Committee and the Committee of the Regions “i2010 – A European Information Society for growth and employment” COM(2005) 229.

[3] Strategia Lizbońska, (http://ec.europa.eu/growthandjobs/index_en.htm)

[4] „Communication on a Commission Initiative for the Special European Council of Lisbon, 23 and 24 March 2000”, (http://europa.eu/scadplus/leg/en/lvb/l24221.htm)

[5] Plan Działań eEurope 2005 – Społeczeństwo informacyjne dla wszystkich, (http://europa.eu.int/information_society/eeurope/2005/index_en.htm)

[6] Sixth Framework Programme (2002-2006), (http://ec.europa. eu/research/fp6/index_en.cfm?p=0_docs)

[7] Komunikat Komisji Europejskiej o Interoperacyjności, SEC(203) 801

[8] IDA (Interchange of Data Between Administrations), (http://europa.eu.int/idabc/)

[9] IDA II, (http://europa.eu.int/idabc/)

[10] Ibidem

[11] eGovernment Observatory, (http://europa.eu.int/idabc/en/chapter/140)

[12] eTEN, (http://europa.eu.int/information_society/activities/eten/index_en.htm)

[13] eContent, (http://cordis.europa.eu/econtent/)

[14] eContent Plus, (http://europa.eu.int/information_society/activities/econtentplus/index_en.htm)

Wskaźniki okrzemkowe opisujące trofię

5/5 - (1 vote)

praca dyplomowa

Termin „trofia” pochodzi od greckiego słowa trofe oznaczającego pokarm, pożywienie, chów (Starmach i in. 1976). Na stan trofii, czyli żyzności wód, ma wpływ głównie koncentracja związków fosforu i azotu. Związki te dopływaj ą do wód w postaci mineralnej lub jako materia organiczna, która ulegaj ąc rozkładowi, dostarcza przyswajalne dla roślin formy mineralne tych pierwiastków. Efekt użyźniania mogą wywoływać również mikroelementy, witaminy, hormony, a także światło i ruch wody, czyli wszystkie czynniki które stymulują produkcję (Kawecka i Eloranta 1994, Kajak 1998). W 1907 roku Weber wprowadził terminy: eutroficzny – pojmowany jako zasobny, bogaty w związki odżywcze i oligotroficzny – jako ubogi, skąpy. Pojęcia te zostały przyjęte przez Neumana w 1919 roku do określenia wód jeziornych bogatych i ubogich w związki pokarmowe. 

Następnie, w 1947 roku Hasler użył terminu eutrofizacja na oznaczenie ogólnego wzbogacenia wód jeziornych (Starmach i in. 1976). Obecnie pod pojęciem „eutrofizacja” rozumie się wzrost trofii w efekcie nadmiernego dopływu substancji odżywczych, które w nadmiarze stanowią jeden z rodzajów zanieczyszczeń. Eutrofizacja, w przypadku jezior jest procesem nieuniknionym i w warunkach naturalnych bardzo powolnym. W ostatnich dziesięcioleciach, w wyniku gospodarki ludzkiej – zrzutu ścieków komunalnych i przemysłowych, wycinki lasów, intensyfikacji rolnictwa, w tym nawożenia mineralnego, notuje się, zarówno w wodach stojących, jak i płynących, znaczne przyspieszenie tego procesu (Wojciechowski 1987, Kawecka i Eloranta 1994, Kajak 1998). Wody płynące maj ą zdolność do likwidacji nadmiaru biogenów w procesie samooczyszczania, stąd też wzdłuż ich biegów tworzą się strefy o zmniejszającej się trofii, czemu towarzyszą zmiany w strukturze zbiorowisk organizmów wodnych i w wielkości ich biomasy (Patrick 1953, Stjerna-Pooth 1981, Kawecka i Eloranta 1994).

Jedną z pierwszych klasyfikacji troficznych w odniesieniu do jezior przedstawił Neumann (1932). Wyróżniono w niej siedem poziomów żyzności wód:

  1. wody eutroficzne,
  2. wody eutroficzne do mezotroficznych,
  3. wody mezotroficzne,
  4. wody mezotroficzne do oligotroficznych,
  5. oligotroficzne do dystroficznych,
  6. eutroficzne do oligotroficznych,
  7. eutroficzne do dystroficznych.

Pod wpływem prac dyskutujących trofię i saprobię jako pojęcia oznaczające ten sam stan – opisujące przejawy tego samego procesu, oba bowiem zależą od dopływu azotanów i fosforanów (Odum 1956, Starmach i in. 1976, Sladecek 1977, Uhlmann i Fritzsche 1977), w kolejnych klasyfikacjach zaczęto łączyć klasyfikację troficzną z saprobową. Schmassmann (1951), jako pierwszy podjął próbę klasyfikacji wód rzecznych według systemu troficznego ustalonego wcześniej przez Neumanna (1932). Równocześnie dokonał porównania tych dwóch klasyfikacji uwzględniając stopień nasycenia tlenem i temperaturę wody (tab. 2.1).

Tabela 2.1. Porównanie systemu troficznego i saprobowego dla rzek wg. Schmassmanna (1951).

Table 2.1. Comparison of trophic and saprobic classification of rivers according to Schmassmann (1951).

STOPIEŃ TROFICZNY

STREFA SAPROBOWA

STOPIEŃ NASYCENIA TLENEM

oligotroficzny

katarobowa

stałe przesycenie tlenem

mezotroficzny

oligosaprobowa

stałe nasycenie tlenem

eutroficzny

P-mezosaprobowa i częściowo a-mezosaprobowa

dobowe zmiany: dzień – przesycenie tlenem, noc – spadek nasycenia tlenem do ponad 50 %

politroficzny

częściowo a-mezosaprobowa i polisaprobowa

brak stanu przesycenia tlenem

Na początku lat 90-tych ubiegłego wieku Schiefele i Kohman (1993) zaproponowali wskaźnik okrzemkowy Trophic Diatom Index (TDI) bazujący na równaniu Zelinki i Marvana (1961). Indeks uzupełniono listą 105 gatunków wraz z obliczonymi wartościami wskaźnikowymi w zależności od rozpuszczalnych aktywnych fosforanów (SRP), fosforu całkowitego, azotanów i amoniaku. Dla potrzeb indeksu poszczególnym taksonom okrzemek przypisano wartości wrażliwości względem koncentracji soli biogenicznych w przedziałach od 1 (niska koncentracja soli biogenicznych) do 4 (wysoka koncentracja soli biogenicznych) i wartości wskaźnikowe od 1 do 7. W systemie indeksu TDI podzielono status jakości wód na siedem poziomów, który pokrywa warunki od oligotrofii do hypertrofii. Wyróżniono dwa warianty TDI: TDIMIP kalibrowany na fosforanach i fosforze całkowitym, TDIMIPN kalibrowany w warunkach, gdzie dodano związki azotu tak, aby umożliwić określenie proporcji zawartości soli biogenicznych. Według Hoffman (1996) wiarygodność indeksu TDI ogranicza się do warunków od meso- do hypertrofii.

Na podstawie badań nad strukturą zbiorowisk okrzemek w jeziorach o różnym stanie troficznym Hofmann (1994) opracowała indeks troficzny bazujący na indeksie saprobowym Zelinki i Marvana (1961):

n

Z

indeks trofii TI = ——————-

n

Z H,- G,

n=1

gdzie: TI – oznacza indeks trofii

H, – oznacza udział procentowy gatunku i,

G, – oznacza wagę gatunku i,

T, – oznacza przypisaną wartość preferencji gatunku i względem trofii obliczoną na podstawie średniej ważonej.

Wykorzystanie powyższej formuły pozwoliło na wyraźne wyodrębnienie stanów oligo-, mezo- i eutrofii oraz poziomów pośrednich pomiędzy poszczególnymi stopniami trofii. Dzięki temu uzyskano wysoki poziom dokładności w wyznaczaniu stopnia troficznego. Sześciostopniową klasyfikację zaproponowaną przez Hofmann (1994) uwzględniającą tolerancję okrzemek względem trofii zawarto w tabeli 2.2.

Ponadto, autorka (l.c.) sporządziła listę 487 taksonów dla których podała m.in. optima tolerancji względem trofii obliczone za pomocą metody średniej ważonej. Jednocześnie, w szerokiej dyskusji zarekomendowała stosowanie w analizach jakości wód kombinacji systemu troficznego i saprobowego tzn. zastąpienie niższych poziomów saprobii (I i I-II klasa jakości wody) indeksem poziomu trofii, który w strefach o niskim ładunku zanieczyszczenia organicznego, jest bardziej odpowiednim i wiarygodnym wskaźnikiem jakości.

Tabela 2.2. Klasyfikacja troficzna okrzemek według Hofmann (1994). Table 2.2. Trophic classification of diatoms by Hofmann (1994).

GATUNKI

WYSTĘPOWANIE

WARTOŚĆ WSKAŹNIKOWA

oligotrofy

obligatoryjne w środowiskach oligotroficznych

gatunki wyróżniające dla stopnia mezo- i eutrofii

oligo-P-mezotrofy

od oligotrofii do średniej mezotrofii

gatunki wyróżniające dla stopnia silnej mezotrofii i eutrofii

oligo-a-mezotrofy

nieograniczenie żywotne w warunkach od oligotrofii do silnej mezotrofii, jednakże nie toleruj ą warunków eutroficznych

gatunki wyróżniające dla stopnia eutrofii

a-mezo-eutrofy

obecne jedynie w wysokich stopniach trofii: od umiarkowanej mezotrofii do eutrofii

wskaźniki umiarkowanej mezotrofii do eutrofii

eutrofy

obligatoryjne w środowiskach eutroficznych

wskaźniki eutrofii

tolerancyjne

posiadaj ą szeroki zakres tolerancji co wpływa na brak albo niewysoki stopień ich powiązania ze stopniami trofii

nieodpowiednie jako wskaźniki stanu trofii, ale nie koniecznie obojętne względem trofii

Kolejny system troficzny opracowany na podstawie badań przeprowadzonych na zbiorowiskach okrzemek w wodach słodkich i słonawych przedstawili Van Dam i in. (1994). W zależności od wymagań względem trofii autorzy (l.c.) wyróżnili 7 wskaźnikowych grup okrzemek:

  1. oligotrofy,
  2. oligo-mezotrofy,
  3. mezotrofy,
  4. mezo-eutrof,
  5. eutrofy,
  6. hypereutrofy,
  7. oligo- do eutrofy (hypereutrofy).

Podobnie jak Hofmann (1994), w załączonym zestawieniu Van Dam i in. (1994) podali dla 948 taksonów wartości indykacyjne względem m.in. trofii.

Na bazie badań przeprowadzonych w Anglii i Szkocji kolejny indeks troficzny Trophic Diatom Index (TDI) zaproponowali Kelly i Whitton (1995). Początkowo indeks ten miał być stosowany jako pomocnicze narzędzie w podejmowaniu decyzji, w związku z usuwaniem fosforu w oczyszczalniach wód. Obecnie, po modyfikacjach, zaleca się również jego stosowanie w monitoringu wód powierzchniowych Wielkiej Brytanii (Kelly i in. 2001).

Indeks ten również oparto na formule matematycznej Zelinki i Marvana (1961), a ostatecznie nadano mu postać (Kelly i in. 2001):

indeks TDI = (WMS x 25) – 25 gdzie: TDI – oznacza indeks trofii

WMS – oznacza wrażliwość obliczoną na podstawie średniej ważonej ze wzoru:

n

aj • sj • vj

WMS = ^—————-

n

aj ’vj

j=1

gdzie: aj – oznacza udział procentowy gatunku j w próbie,

Sj – oznacza wrażliwość względem zanieczyszczenia (od 1 do 5) gatunkuj,

vj – oznacza wartość wskaźnikową (od 1 do 3).

Wartości wrażliwości (s) dla taksonów kształtują się następująco:

1      = preferuje bardzo niskie koncentracje soli biogenicznych,

2       = preferuje niskie koncentracje soli biogenicznych,

3       = preferuje pośrednie koncentracje soli biogenicznych,

4       = preferuje wysokie koncentracje soli biogenicznych,

5       = preferuje bardzo wysokie koncentracje soli biogenicznych.

Interpretacja indeksu TDI wymaga obliczenia dodatkowego wskaźnika „Percent Pollution Tolerant Valves” (% PTV), który wskazuje na wiarygodność pomiaru stopnia troficznego indeksu TDI (Kelly 1998). Pierwsza wersja indeksu TDI (Kelly i Whitton 1995) bazowała na 100 taksonach okrzemek – zarówno rodzajach jak i gatunkach. W ostatniej wersji (Kelly i in. 2001) liczbę taksonów zwiększono do 113, usunięto gatunki planktonowe, dokonano niewielkich zmian w wartościach s i v dla niektórych taksonów oraz rozszerzono skalę indeksu, aby przyjmował wartości w przedziale od 1 (bardzo niskie koncentracje soli biogenicznych) do 100 (bardzo wysokie koncentracje soli biogenicznych). Ponadto dodatkowy wskaźnik % PTV zastąpiono wskaźnikiem „Percent Motile Valves” (%MV).

W kolejnych latach opracowano nowe indeksy troficzne. Na podstawie badań przeprowadzonych w Niemczech rozwinięto wskaźnik nazwany również Trophic Diatom Index, który dla odróżnienia oznacza się TDI-D (Coring i in. 1999), a w Austrii indeks Trophic Index (TI, Rott i in. 1999). Z kolei indeks TDI rozwinięty w Wielkiej Brytani (Kelly i Whitton 1995, Kelly i in. 2001) obecnie oznacza się symbolem TDI-UK (Kelly 2003).

Indeksy TDI-D i TI, podobnie jak indeks TDI-UK, bazują na równaniu Zelinki i Marvana (1961) i opierają się na wrażliwości okrzemek oraz zakresie ich tolerancji względem koncentracji soli biogenicznych w wodzie. Główne różnice pomiędzy wymienionymi indeksami polegaj ą na wykorzystaniu różnych taksonów przy ich obliczaniu oraz przypisaniu tym samym taksonom nieco odmiennych wartości s i v. Na podstawie badań jakości wody z jednoczesnym zastosowaniem indeksów troficznych TDI- UK, TDI-D i TI w wodach Anglii wykazano (Kelly 2003) ich dużą specyficzność i wąskie zastosowanie; każdy z indeksów najlepiej sprawdza się i daje wiarygodne wyniki w określonym rejonie geograficznym, z reguły w tym, dla którego został opracowany.

Dyskusja wyników pracy

5/5 - (1 vote)

W rezultacie przeprowadzonych w okresie od marca 1999 do lutego 2002 roku badań zebrano bogaty materiał obejmujący zarówno dane dotyczące fizycznych i chemicznych właściwości wód potoków sopockich i przybrzeżnej strefy Zatoki Gdańskiej, jak i rozwijających się w nich zbiorowisk okrzemek bentosowych. Docelowo, zaplanowane analizy miały stworzyć podstawę oceny wpływu wód badanych cieków na kondycję środowiska zatoki. Wprawdzie systematyczny monitoring wód potoków i kąpieliska Sopot prowadzony jest przez zobligowane do tego instytucje, między innymi Wojewódzką Stację Sanitarno-Epidemiologiczną w Gdańsku i Wydział Inżynierii i Ochrony Środowiska Urzędu Miasta Sopot, jednak zakres badanych przez nie parametrów jest uzależniony od wymagań nałożonych przez polskiego ustawodawcę, i nie zawsze obejmował właściwości wód istotne dla organizmów żywych je zamieszkujących.

W niniejszej pracy główną uwagę skupiono na zbiorowiskach okrzemek bentosowych zasiedlających potoki sopockie i przybrzeżną strefę Zatoki Gdańskiej w rejonie ich ujść do morza. Wykorzystuj ąc potencjał bioindykacyjny tej grupy glonów podjęto się próby oceny wpływu wód potokowych na stan środowiska w przybrzeżnej strefie Zatoki Gdańskiej, w rejonie „kąpieliska morskiego Sopot”. Ocena cech środowiska oparta głównie na wskaźnikach biologicznych jest zalecana przez Dyrektywę 2000/60/WE Parlamentu Europejskiego i Rady Wspólnoty Europejskiej z dnia 23 października 2000 roku i Polska, jako kraj członkowski, jest zobligowana do wprowadzenia ich do monitoringu stanu wód powierzchniowych według nowych standardów (np. dla oznaczania, liczenia i interpretacji okrzemek w próbach bentosowych pochodzących z wód płynących obowiązuje dokument Europejskiego Komitetu ds. Standaryzacji EN 14407:2004E).

Jednym z najważniejszych czynników środowiska wpływających na skład i strukturę zbiorowisk organizmów żywych jest temperatura. Analiza temperatury w badanych wodach wykazała brak statystycznie istotnych różnic wartości tego parametru pomiędzy poszczególnymi stanowiskami niezależnie od pory roku, czyli parametr ten przez cały okres badawczy w jednakowym stopniu warunkował rozwój flory okrzemkowej w potokach sopockich i Zatoce Gdańskiej.

Zasolenie wyraża udział substancji rozpuszczonych w wodzie soli w wodach powierzchniowych i wynosi w większości rzek średnio od 200 do 500 mg-dm”3 (Dojlido i in. 1999).

W badanych wodach potokowych zasolenie było parametrem charakteryzującym się dużą zmiennością. Wzrost wartości tego czynnika w ujściach potoków spowodowany był kontaktem z wodami zatokowymi, zwłaszcza w okresie jesienno-zimowym. Jak wykazano na podstawie analiz statystycznych, najbardziej narażone na dopływ wód zatokowych było ujście Potoku Haffnera Na uwagę zwraca fakt wzrostu zasolenia na stanowiskach usytuowanych w górnym i środkowym biegu Potoków Haffnera, Babidolskiego i Grodowego na przełomie jesieni i zimy. Za wzrost zasolenia wód cieków obarcza się ścieki, np. wody opadowe niosące zanieczyszczenia spłukiwane z ulic (Starmach i in. 1976), lub stosowanie soli na szeroką skalę do oczyszczania ulic z lodu w okresie zimowym (Allan 1998), co w obu przypadkach wydaje się być prawdopodobnym źródłem soli w wodach badanych potoków.

Odczyn wód czystych zależy od zawartości węglanów i dwutlenku węgla; wody węglanowe są zasadowe, a wody ubogie w węglany są kwaśne. Na wartości pH w wodach mają wpływ takie elementy, jak: rodzaj podłoża, z którego mogą być wymywane związki o charakterze kwaśnym lub zasadowym, sposób użytkowania terenu, doprowadzone zanieczyszczenia bądź opady atmosferyczne. Wody powierzchniowe maj ą na ogół pH od 6,5 do 8,5 i rzadko przekraczają zakres od 4 do 9 (Dojlido 1987).

Wzdłuż biegu każdego z potoków obserwowano wzrost wartości odczynu wody, ale generalnie nie przekraczały one wielkości charakterystycznych dla naturalnych wód płynących. Stanowiska ujściowe różniły się istotnie pod względem wielkości tego czynnika, jednak obserwowane zmiany nie miały wpływu na wartości pH rejestrowane w zatoce. Według danych wieloletnich odczyn sporadycznie był czynnikiem powodującym pogorszenie jakości wód w potokach sopockich (Beszczyński 1999, Walkowiak 2000, Błaszczak 2002).

W badaniach chemicznych zawartość tlenu rozpuszczonego jest jednym z najważniejszych wskaźników jakości wody, ponieważ jest on niezbędny do życia organizmów wodnych. Tlen rozpuszczony w wodzie pochodzi głównie z powietrza, choć jego źródłem może być także proces fotosyntezy roślin wodnych, a jego zawartość w ciekach wodnych zależy od zmian temperatury w ciągu roku, ciśnienia atmosferycznego i intensywności procesów fotosyntezy (Starmach 1969, Starmach i in. 1976). W czystych wodach powierzchniowych zawartość tlenu zwykle odpowiada 100-procentowemu nasyceniu, a w zanieczyszczonych substancjami organicznymi tlen rozpuszczony zużywany jest na procesy biochemicznego rozkładu tych substancji i jego zawartość może obniżyć się poniżej 100 % nasycenia (Gomółka 1980). W rzekach o słabym rozwoju roślinności zawartość tlenu jest związana z jego rozpuszczalnością w danej temperaturze i waha się w granicach od 6 do 8 mg-dm’3 w ciągu lata oraz od 8 do 12 mg-dm’3 w ciągu zimy (Starmach i in. 1976).

Geneza i rozwój prawa autorskiego

Rate this post

Historia prawa autorskiego jest nierozerwalnie związana z historią przejawów ludzkiej twórczości oraz rozwojem techniki utrwalania i odtwarzania utworów. Zainteresowanie prawem autorskim zawsze koncentrowało się na nowszych formach ludzkiej ekspresji i wynalazkach, które są tak nieocenione dla postępu cywilizacji. Te ostatnie miały nie tylko skutki społeczne i kulturowe, ale także ekonomiczne dla wszystkich, ponieważ mogli czerpać zyski z powstałych dzieł. Zwykły odbiorca zawdzięcza im szeroki dostęp do różnorodnych dzieł. Niezależnie od tych zmian, prawo stopniowo zaczęło określać zasady działalności człowieka, które obejmowały różnego rodzaju dzieła. Z biegiem czasu i rozwojem aktów prawnych wykształcił się system norm prawnych, który obecnie określamy mianem prawa autorskiego.

Malowidła w jaskini Lascaux, stworzone ponad 17 000 lat temu, uważane są za jeden z pierwszych zachowanych przejawów ludzkiej kreatywności. Z oczywistych względów nie podlegały one żadnej ochronie prawnoautorskiej. Taka sytuacja utrzymywała się przez długi czas, bo choć starożytni Rzymianie stworzyli bardzo zaawansowany system prawny, na którym opierają się także dzisiejsze systemy prawne, nie znali dziedziny prawa autorskiego. Własność utworu należała do właściciela egzemplarza, na którym został uwieczniony, tj. H. rzeźba, pergamin lub płótno. J. Marcinkowska zwraca uwagę, że do czasu ustalenia pierwszych norm prawa autorskiego można mówić o istnieniu nieskodyfikowanej zasady „powszechnego swobodnego korzystania”, która nie jest sprzeczna ani z porządkiem prawnym, ani z obowiązującymi zwyczajami, dla których utwór był używany.[1]

Impulsem do zmiany tej sytuacji było opracowanie przez niemieckiego kowala Jana Gutenberga w 1446 roku pierwszego przemysłowego procesu poligraficznego w Europie. Od tej pory egzemplarz księgi mógł być wytwarzany znacznie taniej, szybciej i łatwiej niż dotychczasowymi metodami i jednocześnie być niemal idealną kopią oryginału. Od tego momentu inwestycje w druk czcionek zaczęły się opłacać.

Wynalezienie druku spowodowało dynamiczny rozwój branży poligraficznej. W ciągu 50 lat od wydania pierwszej drukowanej Biblii Gutenberga drukarnie istniały w ponad 250 europejskich miastach, a na początku XVI wieku w Europie w obiegu znajdowało się ponad 20 milionów książek. Przywileje J. Marcinkowskiej z tego okresu dzielą się na dwa podstawowe typy: tzw. przywileje drukarskie (pierwsze nadane w Wenecji w 1469 r.) oraz księgowe (pierwsze nadane przez kajzera niemieckiego w 1501). Ich główną rolą było zabezpieczenie interesów wydawców, a dzieła traktowano jako wytwór techniki drukarskiej, a nie wynik twórczej działalności człowieka.[2]

Fakt, że wynalazek prasy drukarskiej przypadł na renesans, w którym człowiek ze swoimi potrzebami, uczuciami i indywidualnymi aspiracjami zajmował szczególną pozycję, wpłynął na rozwój tego, co J. Marcinkowska nazywa „własną wartością twórczą”. Die Zeit ustaliło, że oprócz dwóch wyżej wymienionych przywilejów, istniały również prawa autorskie, które wprowadzały elementy ochrony prywatności twórców, tj. zakaz autorstwa utworów przez osoby trzecie, ale także pewne przepisy dotyczące praw do druku – pozwolili tylko na jeden. Pierwszy taki przywilej nadano w Wenecji w 1486 roku.[3]

Przenośne maszyny drukarskie były używane w Anglii pod koniec XV wieku, ale pierwsze angielskie prawa nie uwzględniały problemu nielegalnego kopiowania książek. Zamiast tego wprowadzili cenzurę treści, aby zapobiec rozpowszechnianiu informacji, które szkodzą koronie. Dopiero w 1557 r. królowa Maria I nadała londyńskiemu gildii drukarskiej i książkowej, The Worshipful Company of Stationers of London, wyłączny przywilej drukowania książek, zgodnie z którym członek musiał wpisać taką książkę do księgi wejściowej po zakupie kopii utworu, egzemplarzy lub w rejestrze firmowym „Artykuły papiernicze” i dopiero wtedy miała wyłączne prawo do powielania, a reszta firmy została zabroniona druku. Według S. Rubisza był to „pierwszy przejaw działalności zwanej obecnie licencjonowaniem, czyli generalnym zezwoleniem na zwielokrotnianie i rozpowszechnianie utworów”. Przywilej ten był później wielokrotnie odnawiany, ale ostatecznie firma utraciła go w 1695 roku.

W. Machała uważa, że ​​nieopłacalna reprodukcja książek jest powodem, dla którego firmy (drukarki, księgarze, autorzy) zainteresowane uregulowaniem prawa autorskiego w Anglii początkowo nie wykazywały inicjatywy rozszerzenia swoich praw wyłącznych na użytek prywatny… ważne). I, co może ważniejsze, ta działalność służyła tylko specjalnym potrzebom. Z ekonomicznego punktu widzenia kupno drukowanej kopii dzieła było zwykle bardziej efektywne niż ręczne odtworzenie.[4]

Ten model regulacji, w którym tylko drukarze i księgarze otrzymywali ochronę prawną, a interesy ekonomiczne autorów były ignorowane, trwał do początku XVIII wieku i był pierwszym na świecie prawem ochrony własności intelektualnej. Jak trafnie zauważa J. Marcinkowska, przepis ten „przyczynił się do „przeniesienia” rzemieślniczej koncepcji ochrony nacisku na ochronę utworu jako własności intelektualnej. Najważniejszym zapisem Statutu Anny w tym kontekście, pisze S. Rubisz, jest fakt, że „po raz pierwszy w historii autorowi przyznano prawo rozporządzania dziełem i kontroli jego reprodukcji”. i dystrybucja.[5]

W rezultacie prawo to zostało odebrane wydawcom i mogli wydać książkę tylko za osobistą zgodą autora.” „ Okres ochrony wynosił 21 lat dla utworów opublikowanych przed wejściem w życie ustawy, a dla pozostałych 14 lat. ten ostatni mógł zostać przedłużony przez autorów o kolejne 14 lat, jeżeli żyli jeszcze przed upływem pierwszego okresu ochronnego. Ponadto prawo wymagało… od drukarzy oddawania do księgarni 9 egzemplarzy książek, które następnie mogli im sprzedać. Kolejne zmiany w prawie miały na celu głównie ochronę innych rodzajów dzieł, takich jak muzyka, dramat, rysunek i fotografia. Nowelizacja z lat 1958-72 chroniła nadawanie filmowe i telewizyjne. Niezwykle ważne jest, że postanowienia Statutu Anny stanowią podstawę prawa autorskiego w innych krajach, zwłaszcza w Niemczech, Francji i Stanach Zjednoczonych.

Postanowienie o ochronie praw autorów zawarte jest w jednym z postanowień Artykułu I Konstytucji Stanów Zjednoczonych, który stanowi, że „Kongres ma prawo do promowania postępu nauki i sztuki oraz wyłączne prawa autorów i wynalazców do chronić swoje dzieła i odkrycia. „Pierwsza ustawa o prawie autorskim została uchwalona przez Kongres w 1790 r. (Ustawa o prawie autorskim z 1790 r.). Jej celem było „postępowanie nauki”, co miało być osiągnięte poprzez przyznanie autorowi wyłącznego prawa i wolności do druku, Przedruk, wydawanie i rozpowszechnianie („wyłączne prawo i wolność druku, przedruku, publikowania i sprzedaży”) powinno być zabezpieczone. Zakres przedmiotowy prawa ograniczał się do książek, kart i map. Większość wpisów została zapożyczona ze statutu Anny. Prawa autorskie Ustawa z 1790 r. obowiązywała tylko dla obywateli”.

Stany Zjednoczone i nie dotyczy dzieł nabytych poza granicami kraju. Sytuacja ta zmusiła parlament brytyjski do uchwalenia w 1844 r. ustawy o międzynarodowym prawie autorskim, która uzależniała ochronę dzieł na rynku brytyjskim od pochodzenia ich autorów z krajów, które szanują również prawa autorów angielskich. Stworzyło to sieć dwustronnych umów międzynarodowych dotyczących ochrony praw autorskich w obcych systemach prawnych.


[1] J. Marcinkowska, Dozwolony użytek w prawie autorskim, Kraków 2004, s. 20.

[2] Ibidem, s. 23

[2] Ibidem, s. 23

[4] W. Machała, Dozwolony użytek prywatny utworów w polskim prawie autorskim, Warszawa 2003

[5] S. Rubisz, Istota i proces kształtowania się instytucji dozwolonego użytku w prawie autorskim, [w:] Prace Instytutu Prawa Własności Intelektualnej, Kraków 2006 r., s. 171-173.

Sformułowanie kryteriów globalnych

5/5 - (2 votes)

W celu rozstrzygnięcia problemu należy opracować sposoby agregowania wszystkich dostępnych informacji w globalne ilościowe oceny. Wynikiem musi być liczba – wartość globalnego wskaźnika jakości.

Poniższe wzory [1] przedstawiają metodologię pozwalającą na obliczenie globalnych kryteriów na podstawie kryteriów szczegółowych i ich rang.

dd2 = Um. (x )a

gdzie:

p1(x1), p 2(x2), …, p N(xN) – funkcje użyteczności,

{xj, i=1, 2, …, N – jakościowe i ilościowe parametry jakości, a1, a2, …, aN – współczynniki względnej ważności kryteriów.

W każdym z trzech wzorów należy przeprowadzić operację obliczenia wartości funkcji dla określonej wartości kryterium szczegółowego (rys.2.9).

Poniżej przedstawiono wzory potrzebne do obliczenia wartości funkcji w poszczególnych punktach.

f (A) = 0; f (B) = 0;

f (C) =

f (D) = 1; f (E) = 1; f (F) = 1;

G – F H – F ;

f (H) = 0; f (I) = 0;

Wszystkie wartości pi(xó zostały wyliczone za pomocą powyższych wzorów.

Wzory DD2 i DD3 mają własność wyrównywania małych własności jednego kryterium szczegółowego poprzez powiększanie innych, co nie jest dobrym zjawiskiem. Wzór DD1 nie ma tej wady, dzięki czemu prowadzi do wnikliwej oceny, wzór ten nazywany jest kryterium maksymalnego pesymizmu, w związku z czym w wypadkach zadań wielokryterialnej optymalizacji najbardziej racjonalne jest użycie wzoru DD1.

W rozważaniu problemu oceny jakości życia w poszczególnych województwach wykorzystano wszystkie trzy warianty obliczania kryterium globalnego. We wszystkich trzech przypadkach otrzymujemy oceny od 0 do 1. Przy czym ocena 0 oznacza najgorszy wariant, natomiast ocena 1 – najlepszy przypadek. Zgodność rezultatów otrzymanych za pomocą podanych kryteriów zwiększa zaufanie, co do prawidłowości przeprowadzonych obliczeń.

Studia ekonomiczne

5/5 - (1 vote)

Ale zanim wybierzemy przedmioty, jakie zamarzamy zdawać na maturze, dobrze by było abyśmy wiedzieli właściwie już na jaki kierunek studiów będziemy aplikować. Niemniej jednak nie zawsze tak jest, ale na przykład osoby lubiące matematykę mogą rozpocząć licencjat z ekonomii.

Jeśli zdecydują się na ów kierunek, to na trzecim roku będzie przed nimi do napisania praca licencjacka ekonomia. Ale zanim zaczną ją pisać, będą musieli znaleźć promotora i omówić z nim temat pracy licencjackiej ekonomia. Co poniektórzy opiekunowie pozwalają studentom wymyślić temat samodzielnie.

A jednak czasem promotor posiada własną wizję, jak ma prezentować się praca licencjacka ekonomia tematy są wtedy określone dużo wcześniej. A dalej trzeba przystąpić do pisania. Bardzo dobrze jest rozpocząć od zebrania literatury i stworzenia pierwszego planu pracy.

Otóż, z nim łatwiej będzie nam zorganizować swój czas pracy i następne etapy pisania. Zaś po skończeniu pisania pracy oraz sprawdzeniu jej przez promotora, będziemy musieli ją oprawić jak i złożyć w dziekanacie Najczęściej prace licencjackie ekonomia bronione są pod koniec roku akademickiego.

Decyzja o wyborze kierunku studiów jest bardzo indywidualna i zależy od zainteresowań, pasji, umiejętności oraz planów zawodowych danego ucznia. Studia ekonomiczne to jeden z popularnych kierunków, które przyciągają wielu młodych ludzi. Poniżej przedstawiam kilka zalet i wad studiowania ekonomii, które mogą pomóc w podjęciu decyzji.

Zalety studiowania ekonomii:

  1. Szeroki wachlarz możliwości zawodowych: Studia ekonomiczne dają szerokie możliwości zawodowe, pozwalając na pracę w różnych branżach, takich jak bankowość, finanse, konsulting, marketing, zarządzanie, analiza danych, badania rynku, administracja publiczna, czy organizacje non-profit.
  2. Podstawowa wiedza o funkcjonowaniu gospodarki: Studia ekonomiczne dostarczają wiedzy na temat funkcjonowania gospodarki, procesów rynkowych, polityki monetarnej i fiskalnej, co może być przydatne nie tylko w życiu zawodowym, ale także w codziennym życiu.
  3. Rozwój umiejętności analitycznych i krytycznego myślenia: Ekonomia uczy, jak analizować złożone problemy, posługiwać się statystyką, a także rozwija umiejętność krytycznego myślenia. To kompetencje cenione na rynku pracy i w życiu prywatnym.
  4. Perspektywa międzynarodowa: Studia ekonomiczne często mają charakter międzynarodowy, co pozwala na poznanie globalnych trendów, różnych kultur oraz systemów gospodarczych. To może być przydatne zwłaszcza w przypadku pracy w międzynarodowych korporacjach czy instytucjach.

Wady studiowania ekonomii:

  1. Wysoki poziom konkurencji: Ze względu na popularność kierunku, studia ekonomiczne mogą być bardzo konkurencyjne, co może utrudniać zdobycie wymarzonej pracy po ukończeniu studiów.
  2. Wymagania matematyczne: Ekonomia wiąże się z koniecznością posługiwania się matematyką i statystyką. Osoby, które nie czują się komfortowo z tymi dziedzinami, mogą mieć trudności z przyswojeniem niektórych zagadnień.
  3. Czasami teoretyczne podejście: Studia ekonomiczne często koncentrują się na teorii, co może sprawić, że studenci mogą nie być przygotowani do praktycznych aspektów pracy zawodowej. Warto więc w trakcie studiów zdobywać doświadczenie zawodowe poprzez praktyki czy staże.

Podsumowując, warto zastanowić się nad swoimi zainteresowaniami, umiejętnościami i celami zawodowymi przed podjęciem decyzji o studiowaniu ekonomii. Jeśli masz pasję do nauki o gospodarce, jesteś zainteresowany analizą danych, a także chcesz zdobyć wiedzę, która pozwoli Ci zrozumieć funkcjonowanie rynku i podjąć świadome decyzje finansowe, studia ekonomiczne mogą być dla Ciebie odpowiednie.

Warto również wziąć pod uwagę, że istnieje wiele specjalizacji w ramach ekonomii, takich jak ekonomia międzynarodowa, finanse, ekonometria, makroekonomia czy mikroekonomia. Wybór odpowiedniej specjalizacji może pomóc w dostosowaniu studiów do własnych zainteresowań i planów zawodowych.

Pamiętaj także o możliwości łączenia studiów ekonomicznych z innymi dziedzinami, takimi jak nauki polityczne, socjologia, prawo czy zarządzanie. Interdyscyplinarne podejście może dać Ci szersze perspektywy i większe możliwości zawodowe.

Ostatecznie, warto porozmawiać z obecnymi studentami lub absolwentami studiów ekonomicznych, aby uzyskać ich opinię na temat tego kierunku. Zdobądź informacje o uczelniach, na które planujesz aplikować, oraz o oferowanych przez nie programach studiów, możliwościach praktyk zawodowych, wsparciu dla studentów i perspektywach zatrudnienia po ukończeniu studiów. Ta wiedza pomoże Ci podjąć świadomą decyzję o wyborze kierunku studiów.

Oferujemy pomoc w redagowaniu prac z następujących dziedzin

5/5 - (1 vote)

· Administracja,

· Bankowość,

· Ekonomia,

· Filozofia,

· Finanse,

· Geografia,

· Historia,

· Historia sztuki,

· Historia myśli ekonomicznej,

· Kulturoznawstwo,

· Logistyka,

· Marketing,

· Pedagogika,

· Politologia,

· Polonistyka,

· Prawo,

· Psychologia,

· Public Relations,

· Reklama,

· Religioznawstwo,

· Resocjalizacja,

· Socjologia,

· Stosunki międzynarodowe,

· Turystyka,

· Ubezpieczenia,

· Unia Europejska,

· Zarządzanie,

· i inne (proszę pytać)

Charakterystyka przedsiębiorstwa

Rate this post

Charakterystyka firmy HI – TEC NUTRITION

Przedsiębiorstwem,  na podstawie którego oparta została praca jest firma HI TEC NUTRITION. Jest to firma mająca największe wyniki sprzedaży na rynku suplementów przeznaczonych dla sportowców. Przedsiębiorstwo to oferuje produkty najlepsze jakościowo, których działanie zostało potwierdzone wieloma badaniami w Polsce i na świecie.

Firma HI TEC zaistniała na polskim rynku w 1996 roku. Obecnie przedsiębiorstwo to posiada swoje firmowe sklepy w 6 miastach Polski : Warszawie, Krakowie, Łodzi, Gdańsku , Wrocławiu i Poznaniu. Poza sprzedażą w swoich firmowych sklepach, firma HI TEC oferuje swoje produkty w sklepach sportowych w całej Polsce. Sprzedaż suplementów odbywa się również za pomocą internetu i stanowi ona 70% dokonywanych zakupów. Większość reklam oferowanych suplementów znajduje się na stronach internetowych portali oferujących sprzedaż odżywek i sprzętu sportowego. Głównymi klientami firmy są głównie ludzie uprawiający sporty siłowe i kulturystykę.

HI TEC bierze czynny udział w sponsorowaniu zawodów sportowych. Najaktywniej uczestniczy w zawodach sportów siłowych, kulturystycznych i fitness. Podczas zawodów najwyższej rangi takimi jak mistrzostwa świata w trójboju siłowym czy mistrzostwa polski w kulturystyce i fitness. Logo i nazwa firmy zawsze znajduje się na jednym z najbardziej widocznych i eksponowanych miejsc.

Przedsiębiorstwo oferują w sprzedaży:

  1. Odżywki węglowodanowe stosowane w zwiększeniu masy ciała, zwane również gainerami.
  2. Odżywki węglowodanowo – białkowe zawierające od 50% do 70% węglowodanów, jest to uniwersalny suplement stosowany do przyrostu masy mięśniowej.
  3. Odżywki białkowe kształtujące i rzeźbiące mięśnie, głównym składnikiem suplementu są proteiny i aminokwasy.
  4. Aminokwasy zbogacające dietę i powodujące wzrost beztłuszczowej masy mięśniowej.
  5. Kreatyna i inne suplementy dostarczające organizmowi więcej siły niezbędnej podczas wykonywania ćwiczeń.
  6. Napoje i batony energetyczne stosowane po ćwiczeniach dla urozmaicenia diety.

Ze względu na szeroką gamę produktów firmy zaspokajają wielu klientów, o różnych potrzebach. Część z nich stawia sobie za cel zbudowanie dużej muskulatury, inni chcą poprawić swoją kondycję i zrzucić parę kilogramów. Do nich wszystkich przedsiębiorstwa kierują swoje reklamy. Poza internetem, gdzie znajduje się 70% wszystkich reklam odżywek, firma wykorzystuje również czasopisma o tematyce sportowej. Firma HI TEC nie korzysta z usług radia i telewizji w rozpowszechnianiu swoich produktów.

Suplementu Firmy HI TEC NUTRITION sprzedawane są na terenie całego świata. Firma zajmuje się

sponsorowaniem największych sław  światowej kulturystyki i sportów siłowych. Ich twarze wykorzystywane są w reklamach produktów. Plakaty, reklamy prasowe, reklamy internetowe pełne są wysportowanych osób zapewniających o skuteczności reklamowanego suplementu.

Produkty firmy HI TEC sprzedawane są w puszkach, workach foliowych i wiaderkach. Opakowanie zależy od rodzaju i wielkości oferowanego towaru. Suplementy sprzedawane są w formie tabletek, kapsułek i proszku. Do najpopularniejszych produktów należą suplementy białkowe i węglowodanowo – białkowe. Wielu klientów sięga po te odżywki w celu zwiększeniu masy mięśni i masy ciała.

Wynaleźć pracę całkiem na nowo – Komunikacja w firmie

Rate this post

Technologia napędza rewolucję w dziedzinie biznesu. Ci, którzy przetrwają, będą musieli przystosować się i wynaleźć siebie na nowo. Wiele trzeba wyjaśnić, dostarczyć narzędzi, których potrzebuje manager, by stawił czoła wyzwaniu, zachęcił cały zespół organizacji do zrozumienia i zastosowania rewolucyjnych pojęć i definicji pracy.

Wynaleźć pracę całkiem na nowo – Komunikacja w firmie

Technologia napędza rewolucję w dziedzinie biznesu. Ci, którzy przetrwają, będą musieli przystosować się i wynaleźć siebie na nowo. Wiele trzeba wyjaśnić, dostarczyć narzędzi, których potrzebuje manager, by stawił czoła wyzwaniu, zachęcił cały zespół organizacji do zrozumienia i zastosowania rewolucyjnych pojęć i definicji pracy.

Nie trzeba przekonywać, że sprawność obiegu informacji wewnątrz, zarówno dużej jak i małej firmy, okazuje się zasadniczym czynnikiem determinującym sukces strategii jej funkcjonowania i rozwoju. Jest to zarazem jedna z podstawowych funkcji nowoczesnego menedżera – kształtowanie przyszłości. Zawarte w niej zasady komunikacji mogą stanowić modelowe ujęcie rozwiązania problemu jakim jest budowanie sprawnej komunikacji wewnętrznej. Jeśli zasady te zostaną przygotowane w przejrzystej postaci określając imperatywy działań wszystkich członków zespołu włącznie z elementem eliminowania barier i budowania atmosfery zaufania, to można oczekiwać nowego meritum efektywności pracy.

Kategorie te o znaczeniu zarówno etycznym jak i pragmatycznym określiły ramy nowego podejścia do przepływu informacji w firmie. W ujęciu tym podstawowe standardy komunikacji wewnątrz firmy to m.in.:

Szczerość i otwartość

Wszyscy menedżerowie, również najwyższego szczebla zobowiązują się wyjaśniać zasadność zmian, argumenty za i przeciw decyzji dotyczących pracowników oraz zinterpretować zaistniałe fakty. Pracownicy powinni otrzymywać informacje o sprawach istotnych dla nich samych i ich pracy. Oznacza to konsultacje dla najbardziej zainteresowanych kluczowymi sprawami np. w postaci tzw. Otwartych Godzin.

Sprzężenie zwrotne

Zasada: „Wszyscy powinniśmy być zdolni do dawania konstruktywnego sprzężenia zwrotnego i przyjmowania go od każdego z naszych kolegów, włączając w to naszych szefów i wyższych przełożonych, bez obawy o negatywny oddźwięk. Menedżerowie są odpowiedzialni za zachęcanie do tego rodzaju wymiany informacji.” Każdy zatem powinien otrzymać wyczerpującą i prawdziwą odpowiedź na swoje opinie i pytania. Powinna istnieć stała forma otwartej dyskusji pomiędzy zespołem a kierownictwem na wszystkich szczeblach organizacji. Każdy dyrektor naczelny i dyrektor regionalny powinien przewodniczyć co najmniej dwa razy w roku spotkaniom zespołu z kierownikami. Podobnie dyrektorzy subregionów i inni przełożeni powinni spotykać się z zespołem w ustalony i regularny sposób.

Konsekwencja, jasność i koordynacja

Centralne przedsięwzięcia komunikacyjne winny być skoordynowane. Zawsze gdy planowana jest większa zmiana lub realizacja nowego projektu, na początku rozważa się implikacje komunikacyjne. Każdą formę komunikacji należy dostosować do wymagań i potrzeb odbiorców.
Menedżerowie powinni doskonalić swe umiejętności komunikacyjne korzystając ze szkoleń i warsztatów praktycznych. Dzięki temu będą w stanie identyfikować i przezwyciężać bariery komunikacyjne, przygotować zwięzłe notatki, jasno prezentować idee i efektywnie prowadzić zebrania.

Szybkość i istotność

Wiadomości na temat wewnętrznych spraw firmy powinny być udzielane przez kierownictwo najwyższego szczebla na tyle szybko by wyprzedzały informacje docierające do pracowników ze źródeł nie dających gwarancji rzetelności i sprzyjających szerzeniu plotek. Jeżeli informacje dotyczące zespołu dotarły do niego najpierw z zewnątrz, firma powinna skomentować je w ciągu dwóch dni. W pierwszej kolejności informację powinni uzyskiwać ci, którym jest ona najbardziej potrzebna. Menedżerowie niezwłocznie powinni przekazywać swoim podwładnym wiadomości o znaczeniu lokalnym oraz dotyczące ich własnych zespołów. Rzecz jasna efekty wprowadzenia tego rodzaju programów nie pojawiają się z dnia na dzień …

Plan pracy licencjackiej na temat opieki nad dzieckiem podczas studiów

5/5 - (1 vote)

Plan pracy licencjackiej na temat opieki nad dzieckiem podczas studiów może wyglądać następująco:

I. Wstęp

  • wprowadzenie do tematu
  • cel pracy
  • pytania badawcze

II. Rozdział teoretyczny

  • definicja opieki nad dzieckiem
  • rodzaje opieki nad dzieckiem
  • znaczenie opieki nad dzieckiem w kontekście studiów
  • analiza badań dotyczących opieki nad dzieckiem podczas studiów

III. Rozdział empiryczny

  • metody badań
  • charakterystyka badanych osób
  • wyniki badań dotyczące opieki nad dzieckiem podczas studiów

IV. Rozdział praktyczny

  • analiza możliwości zapewnienia opieki nad dzieckiem podczas studiów
  • analiza kosztów opieki nad dzieckiem podczas studiów
  • propozycje rozwiązań dla zapewnienia opieki nad dzieckiem podczas studiów

V. Wnioski

  • podsumowanie wyników badań
  • wnioski dotyczące opieki nad dzieckiem podczas studiów
  • propozycje działań na rzecz poprawy sytuacji osób studiujących i mających dzieci

VI. Bibliografia

VII. Załączniki

  • kwestionariusze badawcze
  • tabele i wykresy przedstawiające wyniki badań

Ważne jest, aby plan pracy był dopasowany do konkretnej sytuacji i potrzeb badanych osób. Można również rozważyć przeprowadzenie wywiadów z rodzicami studiującymi, którzy mają dzieci oraz przedstawicieli uczelni i organizacji zajmujących się kwestiami wsparcia dla rodziców studiujących.