Μετάβαση στο κύριο περιεχόμενο
Φόρουμ της Ευρωπαϊκής Πρωτοβουλίας Πολιτών

Οι Ευρωπαίοι για ασφαλείς συνδέσεις ζητούν αυστηρότερη ρύθμιση της τεχνητής νοημοσύνης στη λήψη αποφάσεων

Επικαιροποιήθηκε στις: 24/01/2023

Οι Ευρωπαίοι για ασφαλείς συνδέσεις είναι ένας συνασπισμός εθνικών και διεθνών οργανισμών που έχουν επίγνωση των δυσμενών συνεπειών των σύγχρονων τεχνολογιών επικοινωνίας. Τονίζουμε ότι δεν είμαστε κατά της τεχνολογίας, αλλά υπέρ της ασφαλούς τεχνολογίας και των ασφαλών συνδέσεων.

Κατά τη διάρκεια ενός έτους από την εκστρατεία μας αντλήσαμε διδάγματα που μπορούν να είναι χρήσιμα για τους μελλοντικούς διοργανωτές. Πρώτον, αν ακούσετε αυτή την πραγματική φωνή στην καρδιά σας, σας πείτε να αλλάξετε τον κόσμο για το καλύτερο για όλους και για όλους: ακολουθήστε αυτή τη φωνή, αγωνίζεστε και μην ξεχάσετε ποτέ την ελπίδα!

αν πάτε με τη ροή, οι άνθρωποι θα έρθουν εύκολα μαζί σας και δεν θα αντιμετωπίσετε αντίσταση. Αν όμως πρέπει να αντιδράσετε, το μήνυμά σας μπορεί να είναι απαραίτητο, καθώς το άψογο έδαφος που καταστρέφει νερό χρειάζεται μαλακή και επίμονη βροχή. Αν και η ΕΕ απαιτεί ένα εκατομμύριο υπογραφές, η ποιότητα των ιδεών σας είναι αυτή που μετράει.

Στην Ευρωπαϊκή Πρωτοβουλία Πολιτών (ΕΠΠ) «Σταματήστε ((((5G)) — Ας μείνουμε συνδεδεμένοι αλλά προστατευμένοι»έχουμε 23 προτάσεις. Μεταξύ αυτών, ζητούμε τη βελτίωση της νομοθεσίας για την προστασία των δεδομένων και την αυτόματη λήψη αποφάσεων μέσω της τεχνητής νοημοσύνης. Προτείνουμε να δρομολογηθεί εκτίμηση επιπτώσεων των επιπτώσεων του 5G στην προστασία των δεδομένων προσωπικού χαρακτήρα (πρόταση 19), επιθυμούμε την ενεργό καταπολέμηση των διακρίσεων και των παραβιάσεων των ψηφιακών δικαιωμάτων (πρόταση 21) και πιστεύουμε ότι οι πολίτες θα πρέπει να ενημερώνονται για το κατά πόσον τα δεδομένα τους υποβάλλονται σε επεξεργασία μέσω αυτοματοποιημένης διαδικασίας (πρόταση 22).

Stop 5G - Logo

Πώς ξεκίνησαν όλα

Η τεχνητή νοημοσύνη (ΤΝ) βρίσκεται εδώ και αρκετό καιρό. Ήδη στις αρχές του 50 οι προσδοκίες ήταν υψηλές όσον αφορά τις απεριόριστες δυνατότητες που θα προσφέρει η ευφυής τεχνολογία στην κοινωνία μας. Σήμερα, πάνω από μισό αιώνα αργότερα, η τεχνολογία τεχνητής νοημοσύνης που εισήχθη κατάφερε να συρρικνωθεί αργά στην καθημερινή μας ζωή. Παρόλο που τα ανθρωποειδή ρομπότ δεν περπατούν ακόμη στον κόσμο μας, βασιζόμαστε σε πολλαπλές πολύπλοκες τεχνολογίες στη διαχείριση των υποδομών μας, στις διαδικασίες εργασίας και στον ελεύθερο χρόνο.

Οι σημερινές «έξυπνες» τεχνολογίες ενδέχεται να διαφέρουν από ό, τι οι παλαιότεροι επιστήμονες θα αποκαλούσαν ανθρωποειδείς έξυπνες μηχανές. Ενώ ο Alan Turing χαρακτήρισε τη νοημοσύνη ως σκέψη και δράση όπως ο άνθρωπος, σήμερα τα έξυπνα συστήματα σκοτώνουν το σπίτι μας με περιορισμένη σκέψη. Είναι δύσκολο να προσδιοριστεί τι ακριβώς είναι η ΤΝ και τι συνεπάγεται. Ωστόσο, μας επέτρεψε να ζούμε αποτελεσματικότερα, ομαλότερα και, ίσως, ακόμη πιο ευχάριστα.

Ωστόσο, τα μειονεκτήματα της ατέρμονης αυτοματοποίησης και της ρομποτοποίησης γίνονται επίσης όλο και πιο εμφανή. Ας πάρουμε, για παράδειγμα, τις γυναίκες αιτούσες της Amazon: απορρίφθηκε διότι ο αλγόριθμος έμαθε να ευνοεί τους άνδρες προς τις γυναίκες. Ή το « chatbot Tay» της Microsoft στο Twitter, το οποίο έπρεπε να αφαιρεθεί εκτός διαδικτύου, διότι είχε συναγάγει ορισμένες εξαιρετικά ρατσιστικές «αλήθειες» από τους συναδέλφους τους. Ή το γεγονός ότι κυρίως φωτογραφίες αρσενικών εμφανίζονται στον όρο αναζήτησης «διευθύνων σύμβουλος» στην Google.

Μπορούμε να πιστεύουμε ότι η ΤΝ φαίνεται να απορροφά τους χειρότερους άνδρες και να εμβαθύνει τις υφιστάμενες ανισότητες. Ωστόσο, το συμπέρασμα αυτό μπορεί να είναι κάπως απλουστευτικό. Τα συστήματα ΤΝ και οι υποκείμενοι αλγόριθμοι συχνά βασίζονται σε δεδομένα, πολλά δεδομένα, για να μάθουν για τον κόσμο μας. Οι τεχνικές μηχανικής μάθησης, όπως τα νευρωνικά δίκτυα και τα διαγράμματα αποφάσεων, επιχειρούν να συνάγουν τάσεις, συνδέσμους μεταξύ εννοιών και σημαντικές παραμέτρους που τους βοηθούν να επιλέγουν τις σωστές επιλογές σε μελλοντικές αιτήσεις. Τα δεδομένα αυτά δεν είναι κάτι που δημιουργήθηκε για λόγους μηχανικής μάθησης. Όχι, τα περισσότερα δεδομένα παρήχθησαν από εμάς, ανθρώπους, κάνοντας κλικ στο διαδίκτυο και κοινοποιήσαμε τις προτιμήσεις μας. Με τη χρήση των δεδομένων μας για μάθηση, τα συστήματα ΤΝ εξουδετερώνουν τις συστηματικές προκαταλήψεις που υπήρχαν ήδη, σε κάποιο βαθμό, στην κοινωνία μας. Αυτό καθιστά την εφαρμογή έξυπνων τεχνολογιών όχι μόνο τεχνολογικό, αλλά και κοινωνικό και δεοντολογικό ζήτημα. Για τους λόγους αυτούς, ορισμένοι ερευνητές υποστηρίζουν ότι οι μηχανικοί κρύβονται εδώ και καιρό πίσω από τις τεχνολογικές πτυχές της ΤΝ, εστιάζοντας στη βελτίωση των υπολογισμών, παραμελώντας παράλληλα τις επιπτώσεις που ενδέχεται να έχουν οι καινοτομίες τους στους τελικούς χρήστες. Η τεχνολογία βρίσκεται μεταξύ ενός φορέα ανάπτυξης και του εξωτερικού κόσμου. Το άρθρο αυτό περιγράφει τρία ζητήματα: τη λογική των διακρίσεων, της λογοδοσίας και του μαύρου κουτιού.

Winter country with 20 telecommunication masts among firs and spruces

Χειμερινή χώρα με 20 τηλεπικοινωνιακούς ιστούς μεταξύ της πρώτης και της ερυθρελάτης
Credit: Πηγή δημόσιου
τομέα: https://labs.openai.com/

Αντιμετώπιση των διακρίσεων και των προκαταλήψεων 

Όπως και οι γυναίκες αιτούσες της Amazon, τα άτομα μειονοτικών ομάδων δεν εμπίπτουν στο πραγματικό πεδίο εφαρμογής των συστημάτων ΤΝ. Ο λόγος είναι εμφανής από το όνομα: πρόκειται για άτομα που αποτελούν μειονότητα. Η εκπροσώπησή τους στα δεδομένα θα είναι περιορισμένη και ο αλγόριθμος δεν θα μαθαίνει τα ειδικά χαρακτηριστικά που αντιπροσωπεύουν τα εν λόγω άτομα. Όπως και οι άνθρωποι, τα συστήματα παρουσιάζουν χειρότερες επιδόσεις με περιορισμένες γνώσεις. Αποτέλεσμα: τα μαύρα άτομα επισημαίνονται ως πίτες από το έξυπνο λογισμικό ανάγνωσης εικόνων της Google ή ως πιο επικίνδυνα σε ένα αυτόματο σύστημα αξιολόγησης κινδύνου για υποτροπή. Απλώς και μόνο επειδή το λογισμικό ήταν εκπαιδευμένο σε εικόνες που περιείχαν λευκά άτομα (και ίσως gorillas).

Οι επιστήμονες δεδομένων έχουν επίγνωση αυτού του προβλήματος και υπάρχουν ήδη τεχνικές για τη βελτίωση των επιδόσεων. Για παράδειγμα, προσαρμόζοντας το σύνολο δεδομένων έτσι ώστε οι μειονοτικές ομάδες να εκπροσωπούνται καλύτερα. Ή προσθέτοντας ένα επιπλέον βήμα στη διαδικασία μηχανικής μάθησης για την τελειοποίηση του μοντέλου.

Και για να καταστεί ακόμη πιο περίπλοκη η συζήτηση: τι θα συμβεί εάν το σύστημά μας προβλέπει πολύ καλά τα αποτελέσματα. Ας υποθέσουμε ότι αναπτύσσουμε δύο αλγόριθμους. Ένα άτομο που ανιχνεύει σωστά μια νόσο στο 80 % του χρόνου σε λευκά άτομα, αλλά μόνο το 60 % του χρόνου σε έγχρωμα άτομα. Και ένα δεύτερο που ανιχνεύει σωστά μια νόσο μόνο το 60 % του χρόνου, ανεξάρτητα από το υπόβαθρο. Θα πρέπει τότε να επιδιώξουμε την ισότητα και να κάνουμε τον αλγόριθμο χειρότερο; Αν και η διακριτική μεταχείριση θα μπορούσε δυνητικά να σώσει περισσότερα λευκά άτομα; Σε αυτό το πλαίσιο λαμβάνονται υπόψη δεοντολογικά ζητήματα.

Ο επιστήμονας των δεδομένων μας μόλις έγινε ένα πρόσωπο που διαμορφώνει την πίστη ενός εκατομμυρίου άλλων και πρέπει ξαφνικά να δυσχεράνει τους δεοντολογικούς προβληματισμούς. Δεοντολογικά διλήμματα που δεν έχουν ακόμη απαντηθεί στο πλαίσιο της δημόσιας συζήτησης. Δεν μπορούμε να αναμένουμε από τους μηχανικούς να λαμβάνουν αυτές τις αποφάσεις, ούτε θα πρέπει να τους θέλουμε. Οι κανονισμοί είναι απαραίτητοι για την καθοδήγηση του σχεδιασμού του λογισμικού.

Artificial Intelligence is a good servant but a bad master

Ητεχνητή νοημοσύνη είναι ένας καλός υπάλληλος αλλά κακός πλοίαρχος.
Πίστωση:

Ομάδα στάσης 5G

Λογοδοσία και υπευθυνότηταΣτην κοινωνία μας, τα άτομα θεωρούνται υπεύθυνα για τις πράξεις τους. Με τα ευφυή συστήματα, είναι δύσκολο να εντοπιστεί η υπαιτιότητα. Ιδίως εάν τα συστήματα είναι πολύπλοκα και αυτοδιδόμενα. Οι μηχανικοί δεν μπορούν πάντα να προβλέψουν τι θα μάθει το σύστημα ή πώς θα συμπεριφέρεται. Η Amazon πιθανότατα δεν είχε την πρόθεση να θέσει σε κίνδυνο τις γυναίκες αιτούσες, ούτε έθεσε συνειδητά τους άνδρες στην κορυφή των αποτελεσμάτων αναζήτησης. Οι συνέπειες αυτές εμφανίστηκαν μόνο μετά την ένταξη του συστήματος στον κόσμο. Αλλά σε ποιους πρέπει να καταλογιστούμε; Η εταιρεία για τη χρήση αυτών των συστημάτων, παρόλο που δεν είχε βάσιμους λόγους να αμφιβάλλει εκ των προτέρων για την ποιότητα του συστήματος.

Ή η εταιρεία που δημιούργησε το σύστημα πώλησης ενός προϊόντος που αποδείχθηκε ότι εισάγει διακρίσεις.Οι καινοτομίες ανέκαθεν διαταράσσουν και όχι χωρίς κίνδυνο. Ζητούν προσαρμογές στην κοινωνία και το δικαστικό μας σύστημα. Πάρτε το αυτοκίνητο. Στις πρώτες ημέρες του, επιτράπηκε σε ένα αυτοκίνητο να περνάει ελεύθερα γύρω από τις πόλεις χωρίς ζώνες ασφαλείας, αερόσακους και οδική σήμανση. Έως ότου ο αριθμός των θυμάτων αυξανόταν ταχέως και οι δρόμοι κατέστησαν αδιανόητοι. Απαιτούνται νέες κατευθυντήριες γραμμές και κανονισμοί για τον εξορθολογισμό της νέας τεχνολογίας στις υφιστάμενες υποδομές. Λίγοι προέβλεψαν ότι το αυτοκίνητο θα καταστεί τόσο επικίνδυνο για το πλήθος βάδισης. Με τη ρύθμιση της χρήσης, μπορέσαμε να αυξήσουμε την ασφάλεια, αξιοποιώντας παράλληλα τα οφέλη αυτού του νέου τύπου μεταφορών.

Σήμερα, δύσκολα μπορούμε να φανταστούμε έναν κόσμο χωρίς μηχανοκίνητες μεταφορές.Όπως και με τα αυτοκίνητα, η απαγόρευση των συστημάτων ΤΝ για τις αρχικές επικίνδυνες επιπτώσεις τους θα ήταν υπερβολικά κοντόφθαλμη. Τα συστήματα ΤΝ μπορούν να έχουν, και ήδη κάνουν, θετικό αντίκτυπο στην κοινωνία μας. Ωστόσο, στο σημείο αυτό, τα συστήματα ΤΝ αναπτύσσονται και απορρίπτονται στην καθημερινή μας ζωή χωρίς «ζώνες ασφαλείας» ή άλλες διασφαλίσεις. Είναι σημαντικό να εξετάσουμε με κριτικό πνεύμα τον τρόπο με τον οποίο θέλουμε να υπάρχει ΤΝ στην κοινωνία μας.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

 
Η κόκκινη σημαία Credit:

Ομάδα στάσης 5G

Μαύρο κουτίΗ αιτιολόγηση του ΓΚΠΔ αναφέρει ότι οι πολίτες έχουν το δικαίωμα να βλέπουν τους λόγους για τους οποίους ελήφθησαν οι αποφάσεις, ποια δεδομένα συλλέγονται και πώς θα χρησιμοποιηθούν τα δεδομένα αυτά. Αυτός ο σχετικά καινοτόμος νόμος αποτέλεσε ένα βήμα προς τη σωστή κατεύθυνση, αλλά απέχει πολύ από την κατάλληλη λύση για την κατοχύρωση της ιδιωτικής ζωής ή την τήρηση των ατομικών δικαιωμάτων. Όταν επισκέπτονται έναν ιστότοπο στο διαδίκτυο, οι χρήστες συχνά έρχονται αντιμέτωποι με μεγάλο όγκο κειμένου που εξηγεί αόριστα ποια δεδομένα προσωπικού χαρακτήρα συλλέγονται. Και τις περισσότερες φορές, είναι δύσκολο να απορρίψετε τυχόν cookies ή να κάνετε κλικ σε διάφορα αναδυόμενα παράθυρα. Οι εταιρείες τηρούν τους αυστηρούς περιορισμούς του ΓΚΠΔ και δεν διευκολύνουν τα φυσικά πρόσωπα να επιβλέπουν τα δικά τους δεδομένα.

Ως εκ τούτου, πιστεύουμε ότι ο ΓΚΠΔ είναι μια αφελής πρωτοβουλία που δείχνει την πείνα για τα δεδομένα διαδικτυακών εταιρειών.Ωστόσο, ακόμη και αν οι εταιρείες θα ήταν πιο πρόθυμες να μοιραστούν την πραγματική συλλογή και χρήση δεδομένων προσωπικού χαρακτήρα, δεν είναι πάντοτε σε θέση να το πράξουν πλήρως. Πολλά ευφυή συστήματα λειτουργούν όπως μαύρα κουτιά: η εισαγωγή σε παρτίδες δεδομένων και το σύστημα θα δώσει ένα ορισμένο αποτέλεσμα ανάλογα με τα χαρακτηριστικά των δεδομένων. Τα τελευταία χρόνια, οι μηχανικοί τάχθηκαν υπέρ αυτών των συστημάτων μαύρου κουτιού. Τα συστήματα αυτά είχαν μεγάλες δυνατότητες για την εκμάθηση πιο σύνθετων εννοιών, όπως η γλώσσα ή οι εικόνες. Γνωστά παραδείγματα συστημάτων μαύρου κουτιού είναι τα νευρωνικά δίκτυα, το λογισμικό αναγνώρισης προσώπου ή το λογισμικό επεξεργασίας φυσικής γλώσσας (π.χ. Google Translate). Οι μηχανικοί έχουν τον έλεγχο ορισμένων παραμέτρων, αλλά δεν γνωρίζουν το είδος των πληροφοριών που τα συστήματα αυτά μαθαίνουν ή συνάγουν από τα δεδομένα. Μόνο με τον έλεγχο των επιδόσεων σε νέα δεδομένα μπορεί ένας μηχανικός να εκτιμήσει αν το σύστημα έχει μάθει τι υποτίθεται. Ένας μηχανικός θα μπορούσε, για παράδειγμα, να εισαγάγει ένα σύνολο νέων εικόνων για να διαπιστώσει αν το σύστημα είναι σε θέση να τις ερμηνεύσει. Ωστόσο, όπως είδαμε προηγουμένως, εάν ο μηχανικός δεν έχει δοκιμάσει επαρκώς το σύστημα, οι φωτογραφίες έγχρωμων ατόμων θα μπορούσαν να ερμηνευθούν ως φωτογραφίες πιθήκων. Θα μπορούσαν οι μηχανικοί της Google να γνωρίζουν αυτό το σφάλμα; Αν είχαν δοκιμάσει το λογισμικό σε ένα σύνολο έγχρωμων φωτογραφιών. Ωστόσο, οι φωτογραφίες μπορούν να περιέχουν οτιδήποτε.

Και θα ήταν πολύ δύσκολο να επαληθευτεί το σύστημα από κάθε άποψη.Πιο αποτελεσματικό θα ήταν να επαληθεύεται τι είδους πράγματα έχει μάθει το λογισμικό. Εάν ο αλγόριθμος Google θα μπορούσε να μας ενημερώσει σχετικά με το είδος των ενεργειών που αναλαμβάνει για την παροχή διερμηνείας, οι μηχανικοί θα μπορούσαν να επαληθεύσουν αυτό το σκεπτικό και να εκτιμήσουν πιθανές εξαιρέσεις ή περιπτώσεις σφάλματος. Αυτός είναι ο λόγος για τον οποίο μέλη της επιστημονικής κοινότητας ζητούν πιο κατανοητές προσεγγίσεις όσον αφορά τη μηχανική μάθηση.

Οι αλγόριθμοι του μαύρου κουτιού δεν έχουν ακόμη ανταποκριθεί στις δυνατότητές τους και δεν είναι κατ’ ανάγκη καλύτεροι από τους πιο κατανοητούς αλγόριθμους.Το ερμηνευτικό πλεονέκτημα αυτών των κατανοητών αλγορίθμων είναι μεγαλύτερο από το αναμενόμενο πλεονέκτημα επιδόσεων των αλγορίθμων μαύρου κουτιού.

Analytics Information by Reto Scheiwiller

 
Παρακολούθηση του μαύρου κουτιού Πίστωση:

Ομάδα στάσης 5G

ΣυμπέρασμαΗ τεχνητή νοημοσύνη και το έξυπνο λογισμικό είναι πανταχού παρόντα στη σύγχρονη ζωή. Επηρεασμός των διαδικασιών λήψης αποφάσεων στις εταιρείες και έκθεση μεροληψιών έναντι μειονοτικών ομάδων.

Όσο δεν κατανοούμε πλήρως πώς λειτουργεί η τεχνητή νοημοσύνη, πώς μας επηρεάζει και ποιες θα είναι οι μακροπρόθεσμες επιπτώσεις της.

Οι πολίτες της ΕΕ δεν έχουν ερωτηθεί εάν αποδέχονται τις διάχυτες κοινωνικές συνέπειες των εργαλείων λήψης αποφάσεων που καθοδηγούνται από την τεχνητή νοημοσύνη στο όνομα της τεχνολογικής προόδου και της ψηφιοποίησης.

Ως εκ τούτου, στην ΕΠΠ «Σταματήστε ((((5G)) — Ας μείνουμε συνδεδεμένοι αλλά προστατευμένοι» ζητούμε αυστηρότερη ρύθμιση για την προστασία των πολιτών από παραβιάσεις της ιδιωτικής ζωής και διακρίσεις ως αποτέλεσμα της ανεξέλεγκτης χρήσης του συστήματος ΤΝ κατά τη λήψη αποφάσεων στην πρόταση 19, την πρόταση 21 και την πρόταση 22 της ΕΠΠ.

  • Και δεν είμαστε μόνοι μας:Το Ευρωπαϊκό Συμβούλιο Προστασίας Δεδομένων δεν επιθυμεί νέες νομοθετικές προτάσεις της Ευρωπαϊκής Επιτροπής που θα διευκολύνουν τη χρήση και την ανταλλαγή δεδομένων (προσωπικού χαρακτήρα) μεταξύ περισσότερων δημόσιων και ιδιωτικών φορέων.
  • Σύμφωνα με το Ευρωπαϊκό Συμβούλιο Προστασίας Δεδομένων, αυτό «θαεπηρεάσει σημαντικά την προστασία των θεμελιωδών δικαιωμάτων στην ιδιωτική ζωή και την προστασία των δεδομένων προσωπικού χαρακτήρα».Το Ευρωπαϊκό Συμβούλιο τονίζει τη σημασία μιας ανθρωποκεντρικής προσέγγισης της πολιτικής για την ΤΝ.
  • Σκεφτείτε θέματα όπως η μεροληπτική και αδιαφανής λήψη αποφάσεων που επηρεάζουν τα θεμελιώδη ανθρώπινα δικαιώματα των πολιτών.
  • Η προκαταρκτική μελέτη της UNESCO σχετικά με τη δεοντολογία της τεχνητής νοημοσύνης στη σελίδα 10 αναφέρει ότι «Είναι πιο σημαντικό να εκπαιδευτούν οι μελλοντικοί μηχανικοί και επιστήμονες υπολογιστών για τον δεοντολογικά ευθυγραμμισμένο σχεδιασμό συστημάτων ΤΝ».
  • Μια άλλη Ευρωπαϊκή Πρωτοβουλία Πολιτών (ΕΠΠ) με τίτλο Reclaim Your Face ζήτησε την απαγόρευση της χρήσης επιβλαβούς ΤΝ, όπως η βιομετρική μαζική παρακολούθηση και η παρακολούθηση αναγνώρισης προσώπου.Ακόμη και το 1942, ο Isaac Asimov προέβλεψε τα προβλήματα και δήλωσε τρεις νόμους για τη ρομποτική. Ο πρώτος νόμος είναι ότι ένα ρομπότ δεν πρέπει να βλάπτει άνθρωπο.

Όπως φαίνεται στο παρόν άρθρο, απέχουμε πολύ από αυτό.

 

Stop 5G - Blog Post Author

Συντελεστές

 

Amar van UdenΟ Amar van Uden είναι συγγραφέας της Ευρωπαϊκής Πρωτοβουλίας Πολιτών (ΕΠΠ) «Σταματήστε ((((5G)) — Ας μείνουμε συνδεδεμένοι αλλά προστατευμένοι».

Αφήστε ένα σχόλιο

Για να προσθέσετε τα σχόλιά σας, πρέπει να γίνει η ταυτοποίησή σας ή να εγγραφείτε.
Δήλωση αποποίησης ευθύνης: Τα σχόλια που διατυπώνονται στο φόρουμ της ΕΠΠ αντανακλούν αποκλειστικά τις απόψεις των συντακτών τους και δεν μπορεί σε καμία περίπτωση να θεωρηθεί ότι αντανακλούν τη θέση της Ευρωπαϊκής Επιτροπής ή της Ευρωπαϊκής Ένωσης.