<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>machinevision | DBR77</title>
	<atom:link href="https://cdn.dbr77.com/tag/machinevision/feed/" rel="self" type="application/rss+xml" />
	<link>https://cdn.dbr77.com</link>
	<description>Platforma robotów</description>
	<lastBuildDate>Wed, 08 Sep 2021 13:30:59 +0000</lastBuildDate>
	<language>pl-PL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=5.8.13</generator>

<image>
	<url>https://cdn.dbr77.com/wp-content/uploads/2020/04/cropped-favicon_dbr-32x32.png</url>
	<title>machinevision  - DBR77</title>
	<link>https://cdn.dbr77.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Wskazówki dotyczące wdrażania narzędzi do automatyzacji robotów</title>
		<link>https://cdn.dbr77.com/wskazowki-dotyczace-wdrazania-narzedzi-do-automatyzacji-robotow/</link>
		
		<dc:creator><![CDATA[Marketing]]></dc:creator>
		<pubDate>Wed, 08 Sep 2021 13:30:59 +0000</pubDate>
				<category><![CDATA[Roboty]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[automation]]></category>
		<category><![CDATA[inteligentautomation]]></category>
		<category><![CDATA[machinevision]]></category>
		<category><![CDATA[robotisation]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[roboty]]></category>
		<guid isPermaLink="false">https://cdn.dbr77.com/?p=2417</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[
<div class="et_pb_section et_pb_section_0 et_section_regular" >
				
				
				
				
					<div class="et_pb_row et_pb_row_0">
				<div class="et_pb_column et_pb_column_1_4 et_pb_column_0  et_pb_css_mix_blend_mode_passthrough et_pb_column_empty">
				
				
				
			</div> <!-- .et_pb_column --><div class="et_pb_column et_pb_column_1_2 et_pb_column_1  et_pb_css_mix_blend_mode_passthrough">
				
				
				<div class="et_pb_module et_pb_image et_pb_image_0">
				
				
				<span class="et_pb_image_wrap "><img loading="lazy" width="848" height="477" src="https://cdn.dbr77.com/wp-content/uploads/2021/09/Best_Automation_Testing_tools_for_software_development.jpg" alt="best automation testing tools for software development" title="best automation testing tools for software development" srcset="https://cdn.dbr77.com/wp-content/uploads/2021/09/Best_Automation_Testing_tools_for_software_development.jpg 848w, https://cdn.dbr77.com/wp-content/uploads/2021/09/Best_Automation_Testing_tools_for_software_development-480x270.jpg 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 848px, 100vw" class="wp-image-2420" /></span>
			</div>
			</div> <!-- .et_pb_column --><div class="et_pb_column et_pb_column_1_4 et_pb_column_2  et_pb_css_mix_blend_mode_passthrough et-last-child et_pb_column_empty">
				
				
				
			</div> <!-- .et_pb_column -->
				
				
			</div> <!-- .et_pb_row --><div class="et_pb_row et_pb_row_1">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_3  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				<div class="et_pb_module et_pb_text et_pb_text_0  et_pb_text_align_left et_pb_bg_layout_light">
				
				
				<div class="et_pb_text_inner"><p>Prawidłowo wdrożona automatyzacja robotów może zwiększyć wydajność, zapewnić lepsze wyniki, obniżyć koszty i zwiększyć elastyczność — zarówno w przypadku małych i średnich przedsiębiorstw (MŚP), jak i przedsiębiorstw produkcyjnych na większą skalę. Jednak przedsiębiorstwa muszą mieć solidną i strategiczną wizję automatyzacji robotów, zanim ją zrealizują. Powinni rozumieć, w jaki sposób zostanie on wprowadzony i do jakich zastosowań, nakreślić jego potencjalne korzyści oraz jasno zrozumieć unikalny budżet i strategie operacyjne.</p>
<p>Po udzieleniu odpowiedzi na te podstawowe pytania, następnym krokiem w kierunku automatyzacji nie jest wybór robotów. Zamiast tego ważne jest, aby zidentyfikować odpowiednie manipulatory końcowe, które można zamontować w robotach, aby zautomatyzować aplikacje współpracujące.</p>
<p><strong>Właściwe narzędzia do właściwej pracy</strong></p>
<p>Chociaż zrozumiałe jest, że firmy nowe w dziedzinie automatyzacji mogą zakładać, że roboty są najważniejszym komponentem, to oprzyrządowanie na końcu ramienia lub EOAT w rzeczywistości będzie obsługiwać materiały i produkty. Kluczowa rola EOAT obejmuje również zbieranie danych, które informują o zachowaniu robota i komunikowanie się z przedmiotami, robotami i ludźmi.</p>
<p>Przy wyborze chwytaków robotów, czujników i zmieniaczy narzędzi należy wziąć pod uwagę kilka czynników. Ponieważ nowoczesny EOAT został zaprojektowany do obsługi szeregu zastosowań, producenci EOAT oferują teraz szereg akcesoriów do robotów dostosowanych do różnych potrzeb produkcyjnych. Narzędzia te zazwyczaj wymagają minimalnego czasu instalacji i ponownej instalacji oraz są wyposażone w większe i bardziej złożone funkcje operacyjne. </p>
<p>Na przykład Międzynarodowa Federacja Robotyki przewiduje, że roboty współpracujące, znane w branży jako „coboty”, będą stanowić prawie 35 % globalnej sprzedaży robotów do 2051 r. Więcej robotów współpracujących przełoży się na większe zapotrzebowanie na wszechstronne i elastyczne EOAT co może sprawić, że coboty staną się inteligentniejsze i bardziej autonomiczne, co z kolei zapewni większy zwrot z inwestycji.</p>
<p>Niestandardowy chwytak zaprojektowany wyłącznie do obsługi określonego zadania w środowisku masowej produkcji ma ograniczone zastosowanie i potencjał. Gdy zadanie lub potrzeby produkcyjne ulegną zmianie — co jest szczególnie powszechne w sektorze dóbr konsumpcyjnych — chwytak staje się bezużyteczny i należy go wymienić, co spowalnia procesy i zwiększa koszty. </p>
<p><strong>Inteligentne narzędzia dla inteligentnych firm</strong></p>
<p>Od redukcji kosztów długoterminowych po tworzenie bardziej wydajnego i dynamicznego środowiska produkcyjnego, zautomatyzowane procesy mogą pomóc firmom przezwyciężyć istniejące wyzwania i ostatecznie dać im przewagę nad konkurencją. Dotyczy to zarówno MŚP, jak i większych przedsiębiorstw. Automatyzacja nie służy już tylko produkcji wielkoseryjnej. MŚP z zadaniami produkcji małoseryjnej i historycznymi danymi produkcyjnymi mogą i powinny korzystać z nowoczesnych postępów w robotyce i EOAT, zwłaszcza przy niższych kosztach, co czyni je bardziej wykonalnymi opcjami dla firm o mniejszych budżetach. </p>
<p>Automatyzacja ma wiele potencjalnych korzyści dla MŚP, w tym niższe koszty jednostkowe dzięki większej precyzji, a także możliwość łatwiejszego zwiększania lub zmniejszania produkcji w zależności od popytu. Zwiększone możliwości produkcyjne mogą również pomóc MŚP wyróżnić się na tle konkurencji, czyniąc je bardziej dostępnymi na rynku dla nowych klientów o bardziej wymagających potrzebach produkcyjnych. </p>
<p>Ważne jest, aby wszystkie firmy najpierw rozważyły ​​swoje cele w zakresie automatyzacji, aby upewnić się, że wybierają odpowiednie narzędzia do pracy. Elastyczne narzędzia i inteligentne akcesoria nowej ery zmniejszą koszty wdrażania zautomatyzowanych rozwiązań, jednocześnie oszczędzając czas na instalację i ponowne wdrażanie, dzięki czemu cały proces będzie bardziej oparty na współpracy i integracyjny. </p>
<p>Źródło: www.robotics.org</p></div>
			</div> <!-- .et_pb_text -->
			</div> <!-- .et_pb_column -->
				
				
			</div> <!-- .et_pb_row -->
				
				
			</div> <!-- .et_pb_section -->
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>iSkin – rozciągliwy materiał naszpikowany czujnikami, który działa w ekstremalnie niskich temperaturach</title>
		<link>https://cdn.dbr77.com/iskin-rozciagliwy-material-naszpikowany-czujnikami-ktory-dziala-w-ekstremalnie-niskich-temperaturach/</link>
		
		<dc:creator><![CDATA[Marketing]]></dc:creator>
		<pubDate>Wed, 01 Sep 2021 12:49:24 +0000</pubDate>
				<category><![CDATA[Roboty]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[automation]]></category>
		<category><![CDATA[inteligentautomation]]></category>
		<category><![CDATA[machinevision]]></category>
		<category><![CDATA[robotisation]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[roboty]]></category>
		<guid isPermaLink="false">https://cdn.dbr77.com/?p=2407</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<p><div class="et_pb_section et_pb_section_1 et_section_regular" >
				
				
				
				
					<div class="et_pb_row et_pb_row_2">
				<div class="et_pb_column et_pb_column_1_4 et_pb_column_4  et_pb_css_mix_blend_mode_passthrough et_pb_column_empty">
				
				
				
			</div> <!-- .et_pb_column --><div class="et_pb_column et_pb_column_1_2 et_pb_column_5  et_pb_css_mix_blend_mode_passthrough">
				
				
				<div class="et_pb_module et_pb_image et_pb_image_1">
				
				
				<span class="et_pb_image_wrap "><img loading="lazy" width="1140" height="760" src="https://cdn.dbr77.com/wp-content/uploads/2021/09/iskin.jpg" alt="iskin" title="iskin" srcset="https://cdn.dbr77.com/wp-content/uploads/2021/09/iskin.jpg 1140w, https://cdn.dbr77.com/wp-content/uploads/2021/09/iskin-980x653.jpg 980w, https://cdn.dbr77.com/wp-content/uploads/2021/09/iskin-480x320.jpg 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) and (max-width: 980px) 980px, (min-width: 981px) 1140px, 100vw" class="wp-image-2409" /></span>
			</div>
			</div> <!-- .et_pb_column --><div class="et_pb_column et_pb_column_1_4 et_pb_column_6  et_pb_css_mix_blend_mode_passthrough et-last-child et_pb_column_empty">
				
				
				
			</div> <!-- .et_pb_column -->
				
				
			</div> <!-- .et_pb_row --><div class="et_pb_row et_pb_row_3">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_7  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				<div class="et_pb_module et_pb_text et_pb_text_1  et_pb_text_align_left et_pb_bg_layout_light">
				
				
				<div class="et_pb_text_inner"><p><span>Nowy materiał zaprojektowany przez naukowców z Wydziału Nauk Stosowanych i Inżynierii Uniwersytetu w Toronto łączy elastyczność ludzkiej skóry z lepszą przewodnością i tolerancją temperatur nawet do -93 ° C.</span></p>
<p><span>Substancja znana jako skóra jonowa lub iSkin, może ulepszyć szeroki zakres technologii &#8211; od ubieralnej elektroniki po miękką robotykę.</span></p>
<p><span>Substancja, która należy do rodziny materiałów zwanych hydrożelami, została szczegółowo opisana w artykule </span><a href="https://onlinelibrary.wiley.com/doi/10.1002/adfm.202104665">opublikowanym niedawno w czasopiśmie Advanced Functional <em>Materials</em>.</a></p>
<p><span>&#8222;Hydrożele są usieciowanymi polimerami, które są w stanie utrzymać dużo wody w swoich strukturach chemicznych&#8221; &#8211; mówi <strong>Binbin Ying</strong>, który obecnie kończy pracę podoktorską na MIT, ale kierował projektowaniem materiału podczas studiów podyplomowych na Uniwersytecie McGill i jednocześnie pracując jako wizytujący doktorant w laboratorium profesora inżynierii U of T <strong>Xinyu Liu.</strong></span></p>
<p><span>&#8222;Wiele tkanek w naszym ciele to hydrożele, dlatego są one często stosowane w aplikacjach, w których ważna jest biokompatybilność, takich jak kosmetyki lub inżynieria tkankowa. Ale jeśli chcemy ich używać w miękkiej, elastycznej lub ubieralnej elektronice, musimy dodać nowe funkcjonalności, takie jak mechaniczna rozciągliwość i przewodność elektryczna. &#8222;</span></p>
<p><span>W zeszłym roku Ying i Liu zaprezentowali </span><a href="https://www.utoronto.ca/news/stretchy-skin-sensors-developed-u-t-researchers-bring-human-touch-wearable-tech">wcześniejszą iterację iSkin,</a><span> która pokazała niektóre z jego możliwości: jest samozasilający, nietoksyczny i może rozciągać się do 400 procent swojego pierwotnego rozmiaru.</span></p>
<p><span>Co najważniejsze, zginanie materiału powoduje proporcjonalną zmianę jego przewodności. Umożliwia to przekształcenie ruchu fizycznego w analogiczny sygnał elektryczny.</span></p>
<p><span>&#8222;Fizjoterapeuta może przykleić go do kolana lub łokcia, aby zmierzyć, kiedy i o ile porusza się staw&#8221; &#8211; mówi Liu. &#8222;Umieściliśmy go również na rękawicy, co umożliwiło  pomiar i śledzenie ruchów rąk, które z kolei mogą być używane do sterowania robotem. To bardzo wszechstronny sposób na ułatwienie wszelkiego rodzaju interakcji człowiek-maszyna. &#8221; </span></p>
<p><span>Dzięki wkładowi studentów studiów licencjackich <strong>Ryan Chen,</strong> <strong>Runze Zuo </strong>i doktoranta <strong>Zhanfenga Zhou, </strong>naukowcy badają dalsze zastosowania iSkin. Na przykład dodanie łat materiału do chwytaka mechanicznego zapewnia zestaw sygnałów zwrotnych, które są unikalne dla każdego chwytanego przedmiotu. Analiza kombinacji sygnałów może następnie umożliwić robotowi &#8222;wyczucie&#8221; tego, co podnosi. W połączeniu z algorytmami sztucznej inteligencji robot może nawet nauczyć się rozróżniać przedmioty twarde od miękkich, okrągłe od sześciennych itp. – i odpowiednio je sortować.</span></p>
<p><span>Do tej pory iSkin miał wadę typową dla wszystkich hydrożeli: gdy woda w nim zamarza, powstałe kryształki lodu mogą poważnie uszkodzić złożoną matrycę polimerową.</span></p>
<p><span>Ying i członkowie jego zespołu rozwiązali problem, dodając glicerol, nietoksyczną substancję chemiczną powszechnie stosowaną we wszystkim, od żywności po żel do włosów. Po dokładnym przetestowaniu setek możliwych receptur opracowali nową formułę iSkin, która zwiększa tolerancję na zimno bez strat w innych właściwości materiału. Dodatkowo, nowa formuła umożliwia jeszcze łatwiejsze przyleganie hydrożelu zarówno do skóry, odzieży, jak i innych materiałów.</span></p>
<p><span>&#8222;Przykleiliśmy go do zewnętrznej części kurtki i wyszliśmy na zimę w Toronto, gdzie było 10 stopni poniżej zera&#8221; &#8211; mówi Ying. &#8222;Byliśmy w stanie wykonać te same rodzaje pomiarów, co w laboratorium&#8221;.&#8221;</span></p>
<p><span>Tolerancja na zimno i zwiększona lepkość dodatkowo zwiększają listę możliwych zastosowań materiału. Na przykład mechaniczny chwytak sortujący może teraz pracować w magazynie o niskiej temperaturze, w którym praca człowieka byłaby niewygodna.</span></p>
<p><span>Zespół przewiduje również inne możliwości, w tym miękkie roboty zaprojektowane do wspinania się po trudnym terenie w arktycznych środowiskach. W przyszłości planują kontynuować rozwój materiału i potencjalnie go miniaturyzować.</span></p>
<p><span>Źródło: </span><a href="https://www.utoronto.ca/news/researchers-develop-stretchable-sensor-material-power-wearable-electronics-and-it-works-extreme"><span>Researchers develop stretchable sensor material to power wearable electronics – and it works in extreme cold (utoronto.ca)</span></a></p>
<p>&nbsp;</p></div>
			</div> <!-- .et_pb_text -->
			</div> <!-- .et_pb_column -->
				
				
			</div> <!-- .et_pb_row -->
				
				
			</div> <!-- .et_pb_section --></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Przyspieszanie widzenia maszynowego dzięki sztucznym sieciom neuronowym</title>
		<link>https://cdn.dbr77.com/przyspieszanie-widzenia-maszynowego-dzieki-sztucznym-sieciom-neuronowym/</link>
		
		<dc:creator><![CDATA[Marketing]]></dc:creator>
		<pubDate>Wed, 25 Aug 2021 13:36:17 +0000</pubDate>
				<category><![CDATA[Roboty]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[automation]]></category>
		<category><![CDATA[inteligentautomation]]></category>
		<category><![CDATA[machinevision]]></category>
		<category><![CDATA[robotisation]]></category>
		<category><![CDATA[robots]]></category>
		<category><![CDATA[roboty]]></category>
		<guid isPermaLink="false">https://cdn.dbr77.com/?p=2354</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[
<div class="et_pb_section et_pb_section_2 et_section_regular" >
				
				
				
				
					<div class="et_pb_row et_pb_row_4">
				<div class="et_pb_column et_pb_column_1_4 et_pb_column_8  et_pb_css_mix_blend_mode_passthrough et_pb_column_empty">
				
				
				
			</div> <!-- .et_pb_column --><div class="et_pb_column et_pb_column_1_2 et_pb_column_9  et_pb_css_mix_blend_mode_passthrough">
				
				
				<div class="et_pb_module et_pb_image et_pb_image_2">
				
				
				<span class="et_pb_image_wrap "><img loading="lazy" width="287" height="175" src="https://cdn.dbr77.com/wp-content/uploads/2021/08/machine.jpg" alt="machine" title="machine" class="wp-image-2356" /></span>
			</div>
			</div> <!-- .et_pb_column --><div class="et_pb_column et_pb_column_1_4 et_pb_column_10  et_pb_css_mix_blend_mode_passthrough et-last-child et_pb_column_empty">
				
				
				
			</div> <!-- .et_pb_column -->
				
				
			</div> <!-- .et_pb_row --><div class="et_pb_row et_pb_row_5">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_11  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				<div class="et_pb_module et_pb_text et_pb_text_2  et_pb_text_align_left et_pb_bg_layout_light">
				
				
				<div class="et_pb_text_inner"><p>Wzrok jest ważnym zmysłem żywych stworzeń. Nasze oczy dostarczają nam pozornie nieskończonych informacji o otaczającym nas świecie. Jednym z największych wyzwań w zakresie inżynierii biologicznej jest stworzenie naprawdę dokładnego i niezawodnego sztucznego widzenia maszynowego. Ta technologia szybko się rozwija, ale ludzkie widzenie jest nadal bardziej wydajne.</p>
<p>Dzieje się tak dlatego, że chociaż dość łatwo jest tworzyć wysoce wyrafinowane kamery, mikroskopy i teleskopy, trudno jest przybliżyć zdolność mózgu do rozumienia danych wizualnych i tworzenia na ich podstawie klasyfikacji i przewidywań. Nasz mózg miał miliony lat na rozwinięcie tego poziomu złożoności, a ta technologia jest w porównaniu z nią wciąż bardzo nowa.</p>
<p><strong>Przetwarzanie w czujniku przyspieszające widzenie maszynowe</strong> </p>
<p>Jeden zespół badawczy na Politechnice Wiedeńskiej opracowuje sposób na poprawę szybkości widzenia maszynowego. Obecna technologia widzenia maszynowego wykorzystuje czujnik obrazu, który reaguje na światło, które jest digitalizowane przez inne urządzenie, a następnie przetwarzane w chmurze. Ten system działa, ale wciąż napotyka trudności związane z wydajnym przetwarzaniem dużych ilości danych na wielu urządzeniach.</p>
<p>Rozwiązaniem jest by wyeliminować pośredników poprzez przetwarzanie w czujniku. W tej technologii czujnik obrazu sam zaczyna przetwarzać dane, wycinając jeden z etapów rurociągu wizyjnego. </p>
<p><strong>Sieci neuronowe do obliczeń wewnątrzczujnikowych</strong> </p>
<p>Ten system był możliwy dzięki przyjęciu sieci neuronowych – lub architektury obliczeniowej, która ma wysoce połączone elementy, które mogą działać równolegle, tak jak robią to neurony naszego mózgu.</p>
<p>Sieci neuronowe mogą uczyć się od otoczenia, więc są świetnym kandydatem do umieszczenia w systemie obliczeniowym w czujniku, ponieważ czujnik obrazu jest częścią systemu, która faktycznie zbiera dane z otoczenia. </p>
<p>Technologia ta znajduje się obecnie we wczesnej fazie rozwoju, chociaż naukowcy z powodzeniem wykorzystali czujnik do identyfikacji serii drukowanych liter. Konsekwencje dla tej technologii, gdy dojdą do pełnego urzeczywistnienia, są ogromne. </p>
<p>Zdolność czujników obrazu do przetwarzania własnych danych może mieć wpływ na pojazdy bez kierowcy i produkcję przemysłową.</p>
<p>W naukach przyrodniczych technologia ta może mieć pozytywne konsekwencje medyczne. Ze względu na zdolność rejestrowania dynamicznych i trójwymiarowych obrazów w szerokim polu widzenia, technologia ta może doprowadzić do ogromnej poprawy obrazowania medycznego, ratując w ten sposób życie poprzez umożliwienie lepszej i wcześniejszej diagnozy chorób i urazów.</p>
<p>źródło: www.automate.org</p>
<p>&nbsp;</p></div>
			</div> <!-- .et_pb_text -->
			</div> <!-- .et_pb_column -->
				
				
			</div> <!-- .et_pb_row -->
				
				
			</div> <!-- .et_pb_section -->
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
