www.softwaretestforum.dk Forum Index www.softwaretestforum.dk
Virtuelle netværks forum for dem som arbejder professionelt med QA og software test
 
 FAQFAQ   SearchSearch   MemberlistMemberlist   UsergroupsUsergroups   RegisterRegister 
 ProfileProfile   Log in to check your private messagesLog in to check your private messages   Log inLog in 

kvalitetssikrings og test aktiviteter fra spil branche

 
Post new topic   Reply to topic    www.softwaretestforum.dk Forum Index -> Kvalitetssikring
View previous topic :: View next topic  
Author Message
Marck Petersen
Bruger på niveau 5
Bruger på niveau 5


Joined: 16 Jan 2008
Posts: 86
Location: København

PostPosted: Fri Aug 22, 2008 11:13 am    Post subject: kvalitetssikrings og test aktiviteter fra spil branche Reply with quote

kvalitetssikrings og test aktiviteter fra spil branche

Hej

Jeg prøver at få et overblik over de kvalitetssikrings og test aktiviteter som anvendes indenfor spil branche i dag.

Eksempelvis:
-Hvordan forebygge fejl
-Hvordan laver man indrapportering af fejl (værktøjer)
-Er der nogle test faser som man skal igennem
-Anvender man test automatisering

Jeg håber at dem, som har erfaringer fra spil branche, vil dele viden i denne debat trådet.

Hilsen
Marck
_________________
Profile on linkedin.com:
http://www.linkedin.com/in/marckpetersen
Back to top
View user's profile Send private message Visit poster's website
Daniel Heeris



Joined: 14 Aug 2008
Posts: 1
Location: Denmark

PostPosted: Thu Aug 28, 2008 4:26 pm    Post subject: Reply with quote

jeg arbejder i en dansk spil virksomhed (jeg må desvære ikke oplyse hvilken endnu) og jeg deler gerne mine erfaringer her fra.

Kort fortalt:
Først og fremmest så er computer spil producenter ikke meget anderledes end andre IT producenter. De udvikler begge et stykke software der skal leve op til visse krav.
Hos os udvikler vi ikke kun spil, men også de værktøjer vi bruger til at lave spil. Både spil og værktøjer bliver testet mens de bliver udviklet, og i de første faser forløber tests af begge på samme måde. Det er først når der er tale om desideret sammenhængende gameplay i spillende, at de bliver testet af spil testere.
Op til dette indtræder er det software testerne i QA afdelingen der står for spil relateret tests. Disse inkludere bla. specielle enheder eller versioner af spillet rettet mod tests af specifikke features.

Forbygning af fejl:
vi forbygger fejl efter bedste evne på samme måde som ved almindelig software udvikling, eks. ved brug af unit test, og når en udvikler sender sin nye kode til samlingen bruger vi versions styring, i vores tilfælde Perforce. Den nye version af softwaren bliver så testet for at se om den nye kode har ødelagt noget.

Fejl rapportering
Vi har hovedsageligt to sider af fejl rapporteringen. På den ene side er der QA der står for manuelle tests og manuel fejl rapportering, og på den anden side har vi build maskiner der rapportere om bygge fejl og evt. fejl i forbindelse med automatisk tests. begge dele indgår i den statistiske oversigt over softwaren's sundhed.

Generalt
Vi bygger flere builds dagligt og tester disse. QA vil på bestemte tidspunkter, efter test af nøgle builds, rapportere om status på baggrund af flere tests, der iblandt: smoke tests, funktions test og acceptance test. Hvis der er fejl på en af disse test bliver buildet stemplet som failed, og rapporten vil fortælle hvor fejlen er (hvis muligt) og hvad symptomerne er, så udviklerene kan rette denne.

Til en hvis grad vil udviklerne også rapportere om fejl de finder, men de ender altid hos QA til nærmere undersøgelse.

Vi bruger BugZilla til at holde styr på bugs, og alle på projektet kan oprette og kommentere på disse.

Mht. automatisering af tests er det stadig nyt for os på det projekt jeg er involveret i. Nyt i den forstand at vi har brugt det i ca. et halvt år. Automatisering hos os forståes både som værktøjer til QA der simplificere manuelle handlinger og derved gør deres test hurtigere, og som desiderede test kørsel af vores software med henblik på at fange crashes og ligende opførelser.

Det er undertegnet der står for sidstnævnte. Jeg vedligeholder build maskiner der udføre automatiske test kørsler, udvikler værktøjer til QA og til sidst udvikler og vedligeholder det programmel og de scripts der bruges til at køre vores software for at fange kritiske fejl.

Vi forsøger at automatisere der hvor det giver mening, men uden at det skal være for automatiseringens skyld. Større test programmer tester for simple ting, så som crashes, mens vi overlader GUI tests og mere komplicerede bruger seancer til QA's mandskab.

Jeg håber det gav et godt billede af hvordan vi gør det. Det kunne være meget interessant at vide hvordan andre gør det.
_________________
Heeris
Back to top
View user's profile Send private message Send e-mail MSN Messenger
Display posts from previous:   
Post new topic   Reply to topic    www.softwaretestforum.dk Forum Index -> Kvalitetssikring All times are GMT + 2 Hours
Page 1 of 1

 
Jump to:  
You cannot post new topics in this forum
You cannot reply to topics in this forum
You cannot edit your posts in this forum
You cannot delete your posts in this forum
You cannot vote in polls in this forum


Powered by phpBB © 2001, 2005 phpBB Group