ইউজার ইন্টারফেস এর নতুন দিগন্ত

সিনিউজ ডেস্ক: সাম্প্রতিক সময়ে আমরা নানা রকমের উদ্ভাবনমূলক ইউজার ইন্টারফেস দেখতে পাচ্ছি, যেমন টাচ (উদাহরণ: স্মার্টফোন), ভয়েস (উদাহরণ: সিরি) এবং ইশারা ইঙ্গিত (উদাহরণ: মাইক্রোসফট কাইনেক্ট)। তবে এসব ইউজার ইন্টারফেস এখনও পরীক্ষা-নিরীক্ষার গÐি পেরিয়ে সাধারণ মানুষের নিত্য ব্যবহার্য দ্রব্যে রূপলাভ করতে পারেনি। তবে এগুলো থেকে আমরা বুঝতে পারি, ইউজার ইন্টারফেসের ভবিষ্যৎ গতিপথ কোনটি এবং ভবিষ্যতে আমরা কীভাবে কম্পিউটার ব্যবহার করব তার একটি জোরালো ইঙ্গিতও এ থেকে আমরা পেয়ে যাই। আসুন, এবার নতুন দিনের নতুন প্রজন্মের কয়েকটি ইউজার ইন্টারফেস সম্বন্ধে আরেকটু বিস্তারিত জেনে নিই।

১। জেশ্চার ইন্টারফেস
২০০২ সালের সাই-ফাই মুভি মাইনরিটি রিপোর্ট-এ এমন একটি ভবিষ্যতের চিত্র অঙ্কন করা হয়েছে যেখানে কম্পিউটারের সাথে যোগাযোগের কাজটি মূলত ইশারা ইঙ্গিত বা মবংঃঁৎব-এর সাহায্যেই করা হয়। অদ্ভুত রকম দেখতে একজোড়া গøাভস পরে ছবির নায়ক টম ক্রুইজকে দেখা যায় কম্পিউটারের পর্দায় ইমেজ, ভিডিও, ডাটাসেটসহ নানা রকমের বস্তুকে নিয়ে কাজ করতে। আজ থেকে এক দশক আগে এ ধরনের একটি ইউজার ইন্টারফেস ব্যবহারের ব্যাপারটিকে একটু কষ্টকল্পিতই মনে হয়েছিল, বিশেষ করে ইশারা ইঙ্গিতের মাধ্যমে এতটা নিখুঁতভাবে কম্পিউটারকে নিয়ন্ত্রণ করার ব্যাপারটি। কিন্তু আজ এক দশক পেরিয়ে এটিকে আর কষ্টকল্পিত বলার উপায় নেই। পরবর্তীকালে ২০০৬ সালে ডবøুআইই রিমোট (Wii Remote) এবং ২০১০ সালে কাইনেক্ট (Kinect) ও প্লেস্টেশন মুভ (PlayStation Move)-এর মত মোশন-সেন্সিং ডিভাইসের কল্যাণে ভবিষ্যতের ইউজার ইন্টারফেস যে অনেকটাই ইশারা ইঙ্গিত নির্ভর হবে তার একটি বড় নজির এখনই আমরা পেয়ে যাচ্ছি।

 

জেশ্চার রিকগনিশনের ক্ষেত্রে ইনপুট আসে হাত বা শরীরের অন্য কোনো অঙ্গ প্রত্যঙ্গের নড়াচড়ার মাধ্যমে কম্পিউটারের নানারকম কাজ করার মাধ্যমে, এখনও যেটি ডিভাইস, টাচ স্ক্রিন বা ভয়েসের মাধ্যমে ইনপুট দেয়ার মাধ্যমেই আমরা করে থাকি। আমাদের বর্তমান দ্বিতীয় মাত্রিক ইউজার ইন্টারফেসের সঙ্গে Z অক্ষ z-axis) এসে যুক্ত হওয়ার ফলে মানুষ এবং কম্পিউটারের মিথস্ক্রিয়া ভবিষ্যতে অবশ্যই অনেক উন্নত হবে। আমাদের শরীরকে ব্যবহার করে আরো কত রকম কম্পিউটার ফাংশন সম্পন্ন করা যাবে একবার ভেবেই দেখুন।

২। ব্রেইন-কম্পিউটার ইন্টারফেস
আমাদের মস্তিষ্ক আমাদর মনের মধ্যে খেলে যাওয়া বিভিন্ন চিন্তার সাহায্যে নানা ধরনের বৈদ্যুতিক সিগনাল তৈরি করে। এভাবেই প্রতিটি নির্দিষ্ট চিন্তার সঙ্গে সঙ্গতিপূর্ণ একটি স্বতন্ত্র বৈদ্যুতিক ছক বা প্যাটার্ন তৈরি হয়। এসব অনন্য বৈদ্যুতিক সিগনালকে কাঠামো তৈরি বা ম্যাপিং-এর মাধ্যমে নির্দিষ্ট নির্দেশ (command) সম্পন্ন করা যায়, ফলে কোনো কিছু চিন্তা করার মাধ্যমেই ঐ চিন্তাকে কমান্ড আকারে কার্যকরী করাও সম্ভব হয়। বোঝাই যাচ্ছে, এভাবে কম্পিউটারের সাথে মিথস্ক্রিয়ারও একটি অনন্ত সম্ভাবনাময় ক্ষেত্রে সৃষ্টি হয়ে যায়। ইউজার ইন্টারফেসের এই নির্দিষ্ট ক্ষেত্রটিতেও উদ্ভাবনমূলক নানারকম কাজ হয়ে চলেছে। ইমোটিভ লাইফ সায়েন্স নামে একটি প্রতিষ্ঠানের সহ-প্রতিষ্ঠাতা ট্যান লি-র তৈরি ইপিওসি (EPOC) নিউরোহেডসেটের মাধ্যমে ব্যবহারকারীরা সাই-ফাই ঘরানার একটি হেডসেট মাথায় পরার মাধ্যমে তাদের মাথায় খেলে যাওয়া চিন্তা থেকে সৃষ্ট মস্তিষ্কতরঙ্গের (brainwaves) মাধ্যমে কম্পিউটারে কাজ করতে পারবেন।

 

তবে ট্যান লি-র এই ইপিওসি এখনও মোটামুটি প্রাথমিক পর্যায়ে আছে। এ মুহূর্তে এটিকে দিয়ে খুব সিরিয়াস ধরনের কিছু করানোর উপায় নেই। বোঝাই যাচ্ছে, সর্বসাধারণের ব্যবহার-উপযোগী একটা পর্যায়ে পৌঁছাতে এটির এখনও ভালই সময় লাগবে। তবে আমরা ভবিষ্যতে এমন একটা সময়ের কল্পনা অবশ্যই করতে পারি যখন কেবল চিন্তা দিয়েই কম্পিউটার সিস্টেমকে অপারেট করতে পারবে মানুষ। তখন সম্ভব হবে ‘স্মার্ট হোম’-এর স্বপ্নকে বাস্তবায়ন করা, যখন কেবল চিন্তার মাধ্যমেই বাতি জ্বালাতে বা নেভাতে পারব আমরা, বা আমাদের মনের অবস্থা বা মুড-এর ওপর নির্ভর করেই খেলতে পারব অসাধারণ সব গেম। বোঝাই যাচ্ছে, এ ধরনের ইউজার ইন্টারফেসের ভবিষ্যৎ রীতিমত উজ্জ্বল। তবে এর উপযোগী প্রযুক্তি তৈরি হতে এখনও কিছুটা সময় লাগবে।

৩। নমনীয় ওএলইডি ডিসপ্লে
স্মার্টফোনের টাচস্ক্রিনগুলো দিয়ে অনেক কাজই করা যায় সন্দেহ নেই, তবে এগুলোর একটি সমস্যা হচ্ছে, এগুলোর অনমনীয়তা। আবার অনেকে মনে করেন, ব্যবহাকারীদের স্পর্শের জবাবে এগুলোর যতটুকু সাড়া দেয়া দরকার ততটুকু দেয় না। আপনিও যদি এরকম মনে করেন তাহলে নমনীয় ওএলইডি (অর্গানিক লাইট এমিটিং ডায়োড)-ই হচ্ছে সমাধান। ওএলইডি হচ্ছে একটি অর্গানিক সেমিকন্ডাক্টর যেটিকে মোড়ানো বা বাঁকাচোরা অবস্থায় রাখলেও এটি আলোকে প্রদর্শন করতে পারে। এটিকে প্লাস্টিকের তৈরি বাঁকানো চোরানোর উপযোগী একটি সারফেসের সাথে লাগিয়ে দিলে সম্পূর্ণ নতুন ধরনের এবং পুরোপুরি নমনীয় একটি স্মার্টফোন স্ক্রিন পাবেন।

 

এই স্ক্রিনকে বাঁকানো যাবে, ভাঁজ করা যাবে এবং এ অবস্থাতেই এর সঙ্গে সংযুক্ত কম্পিউউটার স্ক্রিনের সঙ্গে এটি যোগাযোগ করতে পারবে। ফোনটাকে বাঁকানোর মাধ্যমে জুম ইন বা জুম আউট করা যাবে, এর একটি কোণাকে বাঁকালে ভলিউম বাড়বে, আবার অন্য কোণাকে বাঁকালে ভলিউম কমবে। উভয় কোণাকে বাঁকিয়ে ধরলে অনেকগুলো ছবির মধ্যে স্ক্রল ডাউন করা যাবে। এরকম নানা সুবিধা থাকবে এগুলোর মধ্যে। এ ধরনের নমনীয় ইউজার ইন্টারফেস-এর সুবাদে আমরা প্রাকৃতিকভাবেই স্মার্টফোনের সঙ্গে মিথস্ক্রিয়া সম্পন্ন করতে পারব, বিশেষ করে যখন আমাদের হাত দুটো টাচস্ক্রিনের ওপর ব্যস্ত থাকবে। হাতে গøাভস পরা থাকলে বা বড় আঙ্গুল দিয়ে ছোট আকারের স্ক্রিনে কাজ করার ক্ষেত্রে স্মার্টফোনের টাচস্ক্রিনের সাড়া দেয়ার ক্ষমতা নিয়ে যে প্রশ্ন উঠেছে সেটির উত্তর দেয়ার জন্য নতুন ধরনের এই ইউজার ইন্টারফেসকেই অবলম্বন করতে হবে। এই ইউজার ইন্টারফেসযুক্ত স্মার্টফোন থাকলে আপনাকে যা করতে হবে তা হচ্ছে, এটিকে আপনার হাতের তালু দিয়ে একটু চাপ দেয়া। ব্যস, তাহলেই রিসিভ হয়ে যাবে ইনকামিং কল।

৪। অগমেন্টেড রিয়েলিটি
এখনই কোনো কোনো স্মার্টফোন অ্যাপ, যেমন উইকিটুড (Wikitude) ও ড্রডিশ্যুটিং (Drodishooting)-এ অগমেন্টেড রিয়েলিটির ব্যবহার আমরা লক্ষ করছি। তবে এগুলো এখনও অগমেন্টেড রিয়েলিটির একেবারে প্রাথমিক অবস্থাকে ব্যবহার করতে পারছে। গুগলে প্রজেক্ট গøাস-এর কল্যাণে অগমেন্টেড রিয়েলিটি বিশাল একটি প্রযুক্তিতে রূপান্তরিত হতে শুরু করেছে। গুগল গøাস হচ্ছে চোখে পরার উপযোগী এক ধরনের চশমা যেটির সাহায্যে আমরা বাস্তবতার এমন ভার্চুয়াল সম্প্রসারণ দেখতে পাই, যার সাথে যোগাযোগ স্থাপন তথা মিথস্ক্রিয়া করা সম্ভব।

 

অগমেন্টেড রিয়েলিটি কেবল চশমাতেই নয়, যে কোনো কিছুতেই প্রয়োগ করা সম্ভব। তবে শর্ত হচ্ছে, সেই ডিভাইসটির রিয়েল টাইমে বাস্তব দুনিয়ার পরিবেশের সাথে ইন্টারঅ্যাক্ট করার ক্ষমতা থাকতে হবে। ধরুন, কাঁচের মত স্বচ্ছ একটি ডিভাইস, যেটি কোনো বস্তুর সামনে ধরলেন (যেমন কোনো ভবন বা স্থাপনা), আর তার সম্পর্কিত নানা তথ্য ভেসে উঠল গøাসের ওপর। বা বিদেশে বেড়াতে গিয়ে সেদেশের ভাষায় লেখা একটা সাইনবোর্ড চোখে পড়ল, যার মাথামুÐু কিছুই আপনি বুঝতে পারছেন না, ঐ স্বচ্ছ ডিভাইসের মধ্যে দিয়ে ওটাকে দেখলেই আপনার নিজের ভাষায় সেটি অনুবাদ হয়ে গেল। এছাড়া অগমেন্টেড রিয়েলিটি দিয়ে আমাদের প্রাকৃতিক পরিবেশ থেকেও মোবাইল ইউজার ইন্টারফেস তৈরি করা সম্ভব, যেখানে নিজের হাত বা ঘরের দেয়ালের ওপর ছবি ফেলে আপনি ঐ ইন্টারফেসের সাথে মিথস্ক্রিয়া চালালেন।

৫। কণ্ঠস্বরভিত্তিক ইউজার ইন্টারফেস
১৯৭৯ সালে ‘পুট দ্যাট দেয়ার’ শিরোনামে একটি ভিডিও প্রেজেন্টেশন তৈরি করেছিলেণ ক্রিস স্মিডট। সেখানে কণ্ঠস্বর শনাক্তকরণ তথা ভয়েস রিকগনিশন প্রযুক্তির নানা দিক প্রদর্শিত হয়েছিল। সে থেকে এই প্রযুক্তির নানারকম ব্যবহার হয়ে চলেছে বটে, তবে এটি দিয়ে বৈপ্লবিক কোনো সফলতা এখনও অর্জন করা সম্ভব হয়নি। ভয়েস রিকগনিশন প্রযুক্তি নিয়ে সাম্প্রতিককালে সবচেয়ে বেশি হৈ হল্লা হয়েছে সিরি নিয়ে, এটি হচ্ছে অ্যাপলের তৈরি একটি পারসোনাল অ্যাসিস্ট্যান্ট অ্যাপ্লিকেশন যেটিকে অ্যাপলের আইওএস-এ ব্যবহার করা হচ্ছে। এটিতে কণ্ঠস্বর শনাক্তকরণ ফাংশনের জন্য একটি ন্যাচারাল ল্যাংগুয়েজ ইন্টারফেস ব্যবহার করা হয়, যা দিয়ে শুধুমাত্র অ্যাপল-এর তৈরি ডিভাইসে নানারকম কাজ করা যায়।

 

তবে গুগল গøাসের মত অন্যান্য প্রযুক্তিতেও এটির প্রয়োগ আছে। গøাস কিন্তু আদতে একটি স্মার্টফোনের মত কাজ করে, তবে সাধারণ স্মার্টফোনের সাথে এটির ফারাক হচ্ছে, এটিকে হাতে ধরে আঙ্গুলের সাহায্যে এটির সাথে ইন্টার‌্যাক্ট করতে হয় না, বরং এটি চশমার মত চোখে পরে ব্যবহার করতে হয় এবং এটি তার ভয়েস কন্ট্রোল সিস্টেমের মাধ্যমে আপনার আদেশ নির্দেশ নির্বাহ করে। কণ্ঠস্বরভিত্তিক ইউজার ইন্টারফেসে এ মুহূর্তে একমাত্র যে ঘাটতিটি আছে সেটি হচ্ছে, ব্যবকহারকারী যা বলছেন তা শতকরা একশো ভাগ নির্ভুলভাবে চিনতে পারার ব্যাপারটি। এক্ষেত্রে যেভাবে উন্নতি হচ্ছে তাতে নিকট ভবিষ্যতে কণ্ঠস্বরভিত্তিক ইউজার ইন্টারফেসই মানুষের সাথে কম্পিউটারের মিথস্ক্রিয়ার সেরা মাধ্যম হয়ে দাঁড়াতে পারে।

৬। ট্যান্জিবল ইউজার ইন্টারফেস
এমন একটি কম্পিউটার সিস্টেমের কথা কল্পনা করুন যেটি বাস্তব পরিবেশের সাথে ডিজিটাল দুনিয়ার এমন একটি মেলবন্ধন সৃষ্টি করে যাতে কম্পিউটার আপনার চারপাশের প্রতিটি বস্তুকে চিনতে পারে। মাইক্রোসফট-এর এরকম একটি উদ্যোগ হচ্ছে পিক্সেলসেন্স (চরীবষংবহংব), আগে যার নাম ছিল সারফেস। এই সিস্টেমের ইন্টার‌্যাকটিভ কম্পিউটিং সিস্টেমে স্ক্রিনের ওপর যা কিছু রাখা হয় তাকেই চিনতে পারে কম্পিউটার। মাইক্রোসফট সারফেস ১.০-এ বিভিন্ন বস্তু থেকে আলোকে নিক্ষেপ করা হয় একাধিক ইনফ্রারেড ক্যামেরার ওপর। এর মাধ্যমেই কম্পিউটার সিস্টেম স্ক্রিনের ওপর রাখা বিভিন্ন বস্তুকে ধারণ ও চেনার কাজটি করে।

এই প্রযুক্তির অগ্রসর একটি সংস্করণে (মাইক্রোসফট পিক্সেলসেন্স-এর সাথে যেখানে যুক্ত হয় স্যামসাং এসইউআর৪০), স্ক্রিনের মধ্যে অন্তর্ভুক্ত হয় সেন্সর। ক্যামেরার পরিবর্তে এসব সেন্সরই স্ক্রিনের ওপর যাবতীয় স্পর্শকে চিহ্নিত করে। এই সারফেসের ওপর সত্যিকারের তুলি দিয়ে ছবি আঁকলে সেটি ডিজিটাল ছবিতে রূপান্তরিত হয়ে যাবে। আবার এর ওপর স্মার্টফোনকে রাখলে ফোনের গ্যালারির ভেতর যেসব ছবি আছে সেগুলো একটার পর একটা স্ক্রিনের ওপর দেখানো হতে থাকবে।

Leave a Reply

আপনার ই-মেইল এ্যাড্রেস প্রকাশিত হবে না। * চিহ্নিত বিষয়গুলো আবশ্যক।