Automatisk CW mottagning

SM0RVV

Well-Known Member
Jag hamnade i en diskussion igår om hurvida det går att dekoda CW/morse med dator.

Min uppfattning i frågan var att det går utmärkt, men bara till en viss gräns i S/N förhållande, chirpar, QSB, dålig teckengivning mm. Jag tror vidare att denna gräns inträffar betydligt tidigare med datormottagning än hörmottagning. D v s man kan plocka mycket svagare och allmänt sämre signaler med örat än med maskin.

Min kamrat var dock av helt motsatt åsikt. Det borde inte vara några som helst problem att ta emot morse med dator, minst lika bra som hörmottagning ansåg han.

Till saken hör att kamraten inte är radioamatör, däremot är han en extremt duktig data-programmerare. Han har med all rätt ett starkt självförtroende och undrade lite försynt "hur svårt kan det vara?". Det är ju bara en ton som är på eller av.

Utan att vi hamnar i den vanliga CW är bäst/CW är sämst debatten. Hur är det med örat vs. datorn?
Vilken är bäst på att ta emot CW?
Finns det t om siffror på hur många dB bättre den ena är jämfört med den andra?
Finns det CW-dekodrar för kommersiell radiotrafik?

Jag har själv testat CwGet-programmet för windows. Det funkar bra så länge signalen är stabil och handstilen håller sig nära 3:1 förhållandet. Men å andra sidan är dessa signaler samtidigt mycket lätta att läsa med örat, även för en mycket oerfaren telegrafist som jag.
Det enda programmet är mycket bättre på en jag är hastighet. En ren och fin 150 takts signal tar programmet hur lätt som helst. :)

Han har bett mig spela in lite CW trafik, så han kan anta utmaningen. Att skriva ett CW program som fungerar lika bra som örat/hjärnan. Så vi får väl se hur det går. Jag tycker det vore jätteskoj om han lyckas, men tyvärr tror jag det blir svårt.

73 de SM0RVV
 
Att göra en "maskin" som avkodar telegrafi med gott resultat även med störningar och vid dåligt S/N är mycket svårt, men kanske inte omöjligt.

Systemet öra+hjärna är ett mycket optimerat system för mottagning och avkodning
och det skulle krävas enorma mängder "datorkraft" för att komma ens i närheten av prestanda. Så länge som telegrafitonerna uppträder utan en bakgrund av andra signaler
och med konstant takt och nivå går det att avkoda dem med ganska enkla medel,
men så fort som det blir störningar, fading eller dåligt S/N så slutar dessa att fungera.

Öra+hjärna systemet arbetar som ett "signalanpassat filter" med en bandbredd av c:a 30 Hz, och som dessutom viljemässigt kan undertrycka ovidkommande signaler i närheten av den som man vill lyssna på. Dessutom kan människan göra intelligenta uppskattningar av vad som sänts utifrån hela sammanhanget.

Det finns metoder, neurala nätverk, för att efterbilda sådana egenskaper i datormiljö. Det är dock en öppen fråga om den mängd processorkraft som är tillgänglig i t.ex. PC-miljö är tillräcklig för att göra ett användbart system som ens närmar sig det mänskliga systemets prestanda.

Jag skulle rekommendera din kamrat att dels studera en lärobok i signalbehandling för att få en bild av hur telegrafisystemet (ASK eller "on/off keying") arbetar i detalj m.h.t. erforderligt S/N under olika förhållanden, och dels öronläkaren Peter Montnemery SM7CMY:s doktorsavhandling ”Signal detection in noise with special reference to telegraphy”. Den innehåller en hel del experimentella data om gränserna för hörselmottagning av telegrafi.

"Telegrafiavkodare" för kommersiellt bruk har förekommit, men då har det främst varit för att ta emot sändningar med högt telegrafitakt och med högt S/N s.k. "snabbmorse".
I det "taktområde" som hörselmottagning förekommer har hittills telegrafisten varit ohotad.

73/

Karl-Arne
SM0AOM
 
Hej! Vill bara göra ett inlägg då jag som din "data-vän" i dagsläget kan mer om programering än cw (pluggar på cw allt jag kan) vill jag inlägga:

Håller med din vän när han säger "hur svårt kan det vara?". Det är ju bara en ton som är på eller av" dvs vid en ren,brusfri signal är ett dataprogram klart överlägsen det mänskliga örat/hjärnan vad det gäller högsta hastighet för avkodning.När vi skulle uppfatta morse signalen som en enda lång signal så skulle datorn med lätthet glatt vidare avkoda.
jämnför med en miniräknare, just detta är ju datorns bästa egenskap = snabbheten vid uträkningar/tolkningar

Ett sätt att skapa ett avkodnings-program är att avläsa den "ljudremsa" en sändning skapar och ur den läsa av topparna som i sin tur jämnförs med ett förutbestämt mönster ex "två långa efter varandra blir ett "M" osv! Ett program skapat i c++ skulle generera en såpass effektiv kod att det utan problem skulle fungera även med en gammal dator! (om man inte sölar ner programmet med en massa grafik och annat som segar ner) :)

MEN.....Datorer är snabba, fruktansvärt snabba...men dom är dumma..
så om det kommer in brus eller dyl i denna remsa som gör det svårt att skilja ut topparna/signalerna från det övriga i #ljudmattan# eller att avståndet mellan topparna skiftar...ja då börjar våran snabba superdator få problem...som sagt: Snabb men stendum!
Sedan går det ju att skapa bättre och sämre program för avkodning, men till sist skulle Örat/Hjärnan vinna!!!!!
 
tippe_66 said:
Ett sätt att skapa ett avkodnings-program är att avläsa den "ljudremsa" en sändning skapar och ur den läsa av topparna som i sin tur jämnförs med ett förutbestämt mönster ex "två långa efter varandra blir ett "M" osv!

Det som du beskriver är avkodning genom korskorrelation, som är en bra men resurskrävande metod. Förmodligen går det bra att lagra de mönster som representerar alla morsetecken och sedan jämföra dem med dataströmmen i realtid. Först får datatakten bestämmas och därmed i vilken utsträckning de lagrade mönstren behöver skalas för att kunna jämföras direkt.

Problemet med fading, brus och störningar får man ta hand om genom att försöka utföra även en "maskinmottagare" som ett signalanpassat filter i den utsträckning det är möjligt. Det faktum att själva informationen ligger i nycklingssidbanden skulle kunna användas på det sättet att de mönster som man jämför med inte enbart utgörs av signalerna i tidsdomänen, utan även av deras Fouriertransformer i frekvensplanet. Genom att då göra jämförelsekriterier som kräver att en viss mängd av det inkomna tecknets Fouriertransform motsvarar den lagrade skulle det gå att klara även de fall när störningar eller fading förstört delar av en teckendel.

Nästa stora uppgift för "maskinmottagaren" är sedan att försöka ersätta förlorade tecken och teckendelar genom att göra analyser av den inkomna texten och genom sannolikhetsresonemang kunna ersätta förvanskade tecken med riktiga.

Priset för dessa raffinemang är en ökande processfördröjning, men om det är fråga om envägstrafik gör det inte så mycket.

73/

Karl-Arne
SM0AOM
 
Han som ville göra det hade tänkt använda neuralt nätverk som mottagningsmetod.
Han skulle så ha "tränat" nätverket under en tid, och då går det åt både tid och processorkraft. Att sedan utnyttja det programmet redan "lärt" sig för att ta emot trafik skulle tydligen inte kräva alltför mycket hårdvara. Det är alltså träningsfasen som är tung för neurala nätverk,.

Hela det resonemanget är ur ett rent data-perspektiv. Han har fortfarande inte 100% koll på hur många olika problem som örat/hjärnan kan lösa när det gäller morsemottagning.

Tyvärr tappade han intresset när vi hittade en uppsats som handlade om att ta emot morse med hjälp av neuralt nätverk. Det gjordes redan 2001, så det var ju inget nytt.
Jag har inte läst papperet, men det ser inte ut som målet var att ta emot morse via radio. Det var istället någon form av människa-maskin interface för handikappade.

Hursomhelst, vännen tappade sugen så vi får inte veta hur bra det skulle gå? :confused:

73 SM0RVV
 
Back
Top