واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering
واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering

گوگل در آستانه ایجاد تحول در دنیای کامپیوترهای کوانتومی

رایورز - چیپ ۴۹ کیوبیتی گوگل، این امکان را می‌سازد که سیستم‌های مبتنی بر ۴۹ کیوبیت ساخته شوند و سپس مسائلی را حل کنند که برای کامپیوترهای فعلی بسیار دور از دسترس هستند.

شرکت گوگل که در عرصه کامپیوترهای کوانتومی پیشروست، همچنان در این زمینه در تکاپوست و به نظر می‌رسد که به زودی بتواند به یک موفقیت چشمگیر در این زمینه دست یابد.

به گزارش بیزنس اینسایدر، هر چند پردازنده‌های ۲۰ کیوبیتی این شرکت در حال پشت سرگذاشتن مراحل آزمایشی خود هستند، اما مطابق برنامه‌های از پیش تعیین شده، گوگل درصدد آن است که تا پایان سال ۲۰۱۷ پردازنده‌های ۴۹ کیوبیتی را نیز کاملاً آماده فعالیت عملیاتی نماید. شایان ذکر است که در حال حاضر قوی‌ترین چیپ های این شرکت ۹ کیوبیتی هستند که از سال ۲۰۱۵ میلادی عملیاتی شده‌اند.

به گفته کارشناسان، مطابق منطق کامپیوترهای دیجیتال سنتی، هر بیت در واقع ظرفیت یک محتوای باینری را دارد که می‌تواند تنها صفر و یا یک باشد، همانند لامپی که تنها دو حالت ممکن برای آن متصور است: "روشن" یا "خاموش".

اما تفاوت اساسی در کامپیوترهای کوانتومی این است که بر مبنای quantum bits یا qubits کار می‌کند. در این مود، یک کیوبیت می‌تواند همزمان، هر دو حالت صفر و یک را داشته باشد. به نظر متخصصین، همین امر، امکان ترکیب و نیز محاسبات بیشتری را به پردازنده می‌دهد و در نتیجه، به شدت توان کامپیوترها را بالا می‌برد.

 

 

گفتنی است که موضوع فناوری مربوط به کامپیوترهای کوانتومی مدت‌ها فقط در دانشگاه‌ها و محافل آکادمیک مورد استفاده قرار می‌گرفت، اما به تازگی دامنه این موضوع به شرکت‌های تکنولوژی و نیز بازار کشیده شده و رقابت بر سر آن نیز در حال شکل‌گیری است.

مطابق جزئیات این اخبار، چیپ ۴۹ کیوبیتی گوگل، این امکان را فراهم می‌سازد که سیستم‌های مبتنی بر ۴۹ کیوبیت ساخته شوند و سپس مسائلی را حل کنند که برای کامپیوترهای فعلی بسیار دور از دسترس هستند.

گوگل، رسیدن به چنین هدفی را امتیازی بسیار بزرگ و برتری بی‌سابقه می‌داند. به گفته گوگل، هر چه به این هدف نزدیک‌تر شویم، میزان خطا در سیستم نیز به شدت کاهش خواهد یافت.

پشتیبانی متحرک در فضای ابری

رایورز - با توجه به گسترش کاربران در سراسر جهان، زمان آن فرارسیده است که به دنبال یک راه حل مدیریت قابلیت تحرک مبتنی بر فضای ابری باشیم. البته در حال حاضر مزایا و معایب مدیریت دستگاه‌های موبایل و کاربران را از طریق سرویس‌های میزبان بررسی می‌کنیم.

گفته می‌شود که افراد در شرایط سخت یا بر عکس وقتی همه چیز خوب است، اطلاعات بیشتری در مورد یک فرد یا سازمان یاد می‌گیرند. این موضوع در مورد عملیات فناوری اطلاعات (آی.تی) هم کاملاً صادق است.

به ویژه زمانی که کاربران دور هستند و از دستگاه‌های موبایل برای دسترسی به اطلاعات سازمانی استفاده می‌کنند، این موضوع به خوبی به چشم می‌آید.

به گزارش زد.دی نت، جدای از این موضوع، ارائه پشتیبانی IT به کاربران و دستگاه‌های آن از راه دور، یک مسئله چالش برانگیز است.

کسانی که در این شرایط عملکرد بهتری از خود ارائه دهند، نه تنها تجربه فوق‌العاده‌ای به مشتری منتقل می‌کنند، بلکه به مأموریت و نتایج شرکت خود نیز کمک قابل توجهی می‌کنند.

بخشی از این چالش، از تفکر در مورد پشتیبانی فناوری اطلاعات متحرک می‌آید؛ زیرا این پشتیبانی، محدود به دستگاه موبایل است.

دستیابی به رایانش متحرک، نیاز به لایه‌های مختلفی از فناوری و سرویس‌ دارد. در انتهای فرآیند رایانش متحرک، کاربرانی هستند که در پی دسترسی به اطلاعات، برقراری ارتباط و استفاده از برنامه‌ها هستند.

اکثر افراد فوراً به این فکر می‌افتند که پشتیبانی از کارکنان، مستلزم پشتیبانی از کاربر نهایی است، اما بخش زیادی از پشتیبانی از کاربر را می‌توان با استفاده از اتوماسیون ابری انجام داد.

 

 

وقتی نگاهی به سؤالات معمول و مکرر می‌اندازیم، می‌بینیم که خودکارسازی فرآیند بازیابی یا تغییر رمز عبور گمشده، دو سوم سؤالات پشتیبانی را تشکیل می‌دهد. ارائه دسترسی خودکار به سؤالات معمول می‌تواند به روند حل مشکلات سرعت بخشیده و رضایت‌مندی کاربران را افزایش دهد.

پشتیبانی مبتنی بر فضای ابری، با خودکارسازی فرآیندهایی که مستعد بیشترین خطای کاربر یا سایر خطاها هستند، یک پلتفرم مدیریت دستگاه مؤثر ارائه می‌دهد.

کاربران گوشی هوشمند و تبلت، به دانلود نرم‌افزار از فروشگاه‌های اپلیکیشن مبتنی بر فضای ابری عادت کرده‌اند که با پشتیبانی مبتنی بر فضای ابری، امکان تأمین امنیت برای این گوشی‎ها و تبلت‌ها فراهم می‌شود.

***Microsoft Plans on Storing Its Data on DNA in The Next 3 Years

Microsoft Plans on Storing Its Data on DNA in The Next 3 Years

Bring on DNA hard drives.

MIKE MCRAE
27 MAY 2017

If we used DNA like we use magnetic tape to store data today, it's theoretically possible to s
tore all of the information humans have ever recorded in a space roughly the size of a double garage.

Sharing their goals with MIT Technology Review this week, Microsoft Research computer architects say they want to start storing their data on strands of DNA within the next few years, and expect to have an operational storage system using DNA within a data centre by the end of the decade.

As antiquated as it seems, one of the best ways to store a lot of information in a small space right now is good, old-fashioned magnetic tape - not only is it cheap, it's rugged enough to hold information for up to 30 years, and can hold as much as a terabyte of data per roll.

But when we consider more data has been generated in just the past two years than in all of human history, it seems even magnetic tape might not cut it in the next few decades.

A biological material such as DNA might appear to be an odd choice for backing up large amounts of digital information, yet its ability to pack enormous amounts of data in a tiny space has been clear for more than 70 years.

Back in the 1940s, physicist Erwin "cat in a box" Schrödinger proposed a hereditary "code-script" could be packed into a non-repeating structure he described as an aperiodic crystal.

His suggestion famously inspired James Watson and Francis Crick to determine DNA's helical structure based on the research of Rosalind Franklin, sparking a revolution in understanding the mechanics of life.

While strings of nucleic acid have been used to cram information into living cells for billions of years, its role in IT data storage was demonstrated for the first time just five years ago, when a Harvard University geneticist encoded his book – including jpg data for illustrations – in just under 55,000 thousand strands of DNA.

Since then, the technology has progressed to the point where scientists have been able to record a whopping 215 petabytes (215 million gigabytes) of information on a single gram of DNA.

It might be compact, but recording data in the form of a nucleic acid sequence isn't fast. Or cheap.

Last year, Microsoft demonstrated its DNA data storage technology by encoding roughly 200 megabytes of data in the form of 100 literary classics in DNA's four bases in a single process.

According to MIT Review, this process would have cost around US$800,000 using materials on the open market, meaning it would need to be thousands of times cheaper to make it a competitive option.

It was also incredibly slow, with data stored at a rate of about 400 bytes per second. Microsoft says it needs to get to around 100 megabytes per second to be feasible.

It's not clear what efficiencies Microsoft may have found to lower the costs of the process and speed it up, but new technologies have been seeing the cost of gene sequencing drop in recent years, so its end of the decade target may be realistic.

Even then, it's likely it would only be used in select circumstances for customers willing to pay for a specialised storage solution – like critical archives of medical or legal data – rather than as a replacement for current large-scale storage methods.

But while we're speculating, a somewhat more sci-fi use for DNA-based data storage could one day involve living computers.

While Microsoft's DNA storage solution will be based on chips, there's every possibility that future versions of storage could involve enzymes or bacteria engineered to carry out computations.

Even outside of cells, DNA potentially offers novel ways to compute data, opening ways to rapidly crunch numbers for certain problems much as quantum computers do for other areas of mathematics.

For now, it's looking as if DNA has a solid role to play in solving a very real problem that will only get worse.

هوش مصنوعی و یادگیری ماشینی، محور اصلی کنفرانس توسعه دهندگان گوگل

رایورز - کنفرانس توسعه دهندگان گوگل موسوم به آی/اُ اخیرا برگزار شد و تمرکز اصلی این کنفرانس و برگزارکنندگان بر روی فناوری هوش مصنوعی و یادگیری ماشینی بود.

ساندار پیچای، مدیرعامل گوگل در کنفرانس "توسعه دهندگان گوگل" که در سال گذشته میلادی برگزار شد، توضیح داده بود که چگونه جهان دارد از شیوه ابتدا موبایل، به سمت شیوه هوش مصنوعی یا اِی.آی حرکت می‌کند. اما در کنفرانس توسعه دهندگان گوگل که اخیراً برگزار شد، تمرکز این شرکت روی کاربرد هوش مصنوعی برای افراد مختلف است.

به گزارش رایورز به نقل از تاپ‌تک نیوز، در روز آخر این رویداد، گوگل سعی کرد که اهمیت این هوش مصنوعی و یادگیری ماشینی را پررنگ‌تر کند و کاربردی بودن این دو فناوری را برای تمامی افراد شرح دهد.

کاربرد این دو فناوری در زمینه‌های زیادی در حال گسترش است و از ایمیل تا پیدا کردن شغل در بخش بهداشت و درمان را پوشش می‌دهد. یکی از ابتکارهایی که اخیراً گوگل به خرج داد، این بود که از یادگیری ماشینی برای طراحی یادگیری ماشینی بهتر استفاده کرد.

یکی از پدیده‌های دیگری که در حین این رویداد از آن رونمایی شد، نسل دوم واحدهای پردازشی تانسور یا تی.پی.یو (TPU) یا تراشه‌هایی با طراحی سفارشی برای ماشین یادگیری بود. تی.پی.یو‌های ابری جدید از طریق موتور پردازش گوگل و با یک برنامه آلفا، در اختیار پژوهشگران و توسعه‌دهندگان قرار خواهد گرفت.

در این رویداد کلی بوور، معاون بخش واقعیت افزوده و واقعیت مجازی اذعان داشت: «گوگل کماکان دارد روی پیشبرد قابلیت‌های خود در زمینه واقعیت افزوده (A.R) و واقعیت مجازی (V.R) کار می‌کند و قصد دارد که روی پلتفرم‌هایی سرمایه گذاری کند و بتواند دو قابلیت مورد بحث را در دسترس افراد بیشتری قرار دهد.»

 

 

وی افزود: «برای آنکه رایانش فراگیر در اختیار همگان قرار گیرد، توسعه دهندگان نیاز به ایجاد اپلیکیشن‌ها و تجارب بزرگ‌تر دارند و ما داریم روی ابزارها و فناوری‌هایی کار می‌کنیم تا این مهم، انجام گیرد.»

یک نمونه از این اپلیکیشن‌ها، اینستنت پرویو است که به توسعه دهندگان اجازه می‌دهد که با استفاده از هدست‌های وی.آر، نتایج تغییراتی که در برنامه نویسی اعمال می‌کنند را مشاهده نمایند.

چند راه برای دور شدن از دسترس هکرهای باج‌افزاری

رایورز - کارشناسان امنیت سایبری گفتند که حمله اخاذی آنلاین جهانی، نیاز کسب و کارها و سایر سازمان‌های بزرگ را برای به روزرسانی سیستم‌های عامل کامپیوتری و نرم افزارهای امنیتی تقویت می‌کنند.

حمله باج‌افزاری که اخیراً در سطح جهان انجام شد، شبکه‌هایی را که از نرم‌افزارهای منسوخ مانند ویندوزXP استفاده می‌کردند، تا حد زیادی تحت‌الشعاع قرار داد.

دن وایر، سخنگوی شرکت امنیتی فایرآی اظهار داشت: «حقیقتی که باید گفته شود، این است که مردم همیشه می‌خواهند که خودشان را هک کنند. این تمایل تا زمانی که به آنها آسیبی نرسد، ادامه می‌یابد ولی رویکرد صحیح این است که افراد باید سیستم‌های خود را همواره به‌روز نگه دارند.»

به گزارش تاپ‌تک نیوز، حمله‌ باج‌افزاری که اخیرا انجام شد و بیش از 150 کشور را درگیر خود کرد، بخشی از مشکلات فزاینده‌ای است از کلاهبرداری‌های باج‌افزاری است که در آن مردم می‌فهمند که فایل‌هایشان قفل شده است و به اطلاعات مورد نظر دسترسی ندارند و باید به هکرها باج بدهند تا این فایل‌ها را مجددا به آنها بازگردانند.

هکرها در لینک‌های آلوده ایمیل، برای کاربران دام می‌گذارند و به محض ورود کاربر به آن لینک، هکر از مزایای به‌روز نبودن سیستم کاربران سوء استفاده می‌کند و به اطلاعات او دسترسی پیدا می‌کند.

ویروسی که اخیرا منتشر شد، بسیار قوی بود زیرا توانست به تمام کامپیوترهای موجود بر روی شبکه نفوذ کند. چند راه برای پیشگیری از این گونه اتفاقات و حملات باج‌افزارها وجود دارد که حتما باید این اقدامات را انجام داد و از مزایای آن بهره‌مند شد.

 

 

یکی از این راه‌ها، تهیه نسخه پشتیبان از فایل‌های موجود بر روی کامپیوتر است ولی متأسفانه برخی از باج‌افزارها، حتی فایل‌های پشتیبان را نیز تحت تأثیر قرار می‌دهد.

راه دیگر آن است که حتما سیستم‌های خود را به‌روزرسانی کنید. موفقیت باج افزار اخیر در نفوذ به سیستم‌ها نیز در اثر بی‌توجهی به همین نکته بود.

روش دیگر، استفاده از آنتی‌ویروس‌هاست و مهم‌ترین نکته، آموزش کارکنان در این زمینه است. کارکنانی که با سیستم کار می‌کنند باید با امنیت سایبری و مشکلات موجود در آن آشنا باشند.